Blog – les plus lus2017-07-12T08:03:40+02:00

Services publics 2.0 : vers une mETAT-plateforme

By |25|01|2018|Transformation digitale|

ISlean consulting a contribué la semaine dernière à l’animation d’une conférence organisée par l’ACADI*, autour de thème « Entreprises-plateformes, Etat-plateforme : des enjeux et un défi pour toutes les organisations ». Étaient invités Jean-Louis Beffa, ex-PDG de Saint-Gobain ainsi que Clément Bertholet (Direction du Budget) et Laura Létourneau (ARCEP) auteurs de « Ubérisons l’Etat avant que d’autres ne s’en chargent ». Nous explorerons au travers de deux articles les approches des invités.

Services publics 2.0 : vers une mETAT-plateforme

Retour sur la conférence « Entreprises-plateformes, Etat-plateforme : des enjeux et un défi pour toutes les organisations – 2/2 ».

Laura Letourneau et Clément Bertholet se sont intéressés au sujet « Uberisation et État » ont formalisé leurs observations dans un ouvrage « Ubérisons l’État ! Avant que d’autres ne s’en chargent » dont ils nous présentaient les conclusions.

Vous avez dit « Uberiser », « Ubériser » ou « Ubeuriser » ?

C’est en bons conceptuels que ces deux ingénieurs du corps des Mines ont attaqué leur travail en tentant de définir les termes de leur étude.

A force d’entendre le mot « uberisation », on a tous fini par s’en construire une définition implicite… mais est-ce concurrence par les amateurs ? Pas toujours : Uber ne s’appuie désormais que sur les VTC, c’est à dire des professionnels. Désintermédiation ? Pas nécessairement, booking constitue un intermédiaire de plus qui consolide les offres d’autres professionnels. Economie collaborative alors ?

La définition de l’ubérisation de Laura Létourneau et Clément Bertholet est la suivante :

« La Disruption rapide du modèle d’affaire existant par des plateformes numériques de confiance, tournées vers le client et ne disposant pas d’infrastructures physiques ni d’opérateurs en propre. »

Lors de leur stage dans le secteur public, ils ont trouvé une sphère administrative qui se sentait peu concernée par le phénomène. « L’État ne pourra pas être uberisé ». « Il a le monopole de la violence légitime », « Il est le seul acteur de confiance pouvant assurer ses fonctions régaliennes », ou alors « son activité est trop complexe »… Pourtant des acteurs grignotent déjà sur son domaine, ne prenons que Facebook en exemple :

  • Facebook a mis en place un safetycheck qui a été utilisé dans le cadre des attentats en france avec une efficacité 100 fois supérieures à un numéro vert,
  • Facebook développe en Afrique des infrastructures réseau pour accorder un « droit à l’accès à internet« , mission qu’on attendrait plutôt d’un état,
  • La conférencière nous racontait elle-même que, ayant oublié ses papiers, elle avait pu attester de son identité à une compétition sportive en montrant son compte Facebook.

L’État 2.0 : un guichet unique et la certification de services décentralisés ?

A quoi ressemble un état uberisé ? Laura Letourneau et Clément Bertholet en propose une vision : celle d’un état plateforme, interlocuteur unique mais fédérateur de services publics plutôt que producteur

Un Guichet Unique

La première étape vers une auto-uberisation de l’État est de proposer une expérience unifiée aux citoyens. C’est une difficulté que connaissent bien les entreprises, et tous les consultants qui ont un jour essayé de rapprocher la base de prospection commerciale d’une base de fidélisation des client existants. Pour l’État, l’enjeu est d’autant plus grand que le nombre de services proposés est immense.

Il faut fédérer l’identité numérique citoyenne, peut être même en acceptant d’autres fournisseurs d’identité que FranceConnect… et pousser les différents services de l’État à mettre en commun leurs données. C’est un travail d’urbanisation titanesque mais sans lequel aucun progrès de l’expérience citoyen ne sera possible.

Un État fédérateur

Le second axe vers un état uberisé consiste à décaler le paradigme d’une production des services publics principalement en interne, par les ministères et entités publiques, à une fédération de producteurs de service de toutes natures, pouvant inclure l’État… mais aussi des entreprises et / ou des associations.

Qu’on ne s’y trompe pas, il ne s’agit pas d’une démission de l’État : ce dernier doit jouer son rôle de protecteur des libertés des Citoyens en identifiant, cadrant et en certifiant les fournisseurs de service. Ce travail consiste à dire au citoyen « j’ai confiance en l’entité xxx, pour le service yyy, vous pouvez y aller ».

Cela passe par une définition du service à rendre : finalité, exigences de qualité, de prix, de respect de la vie privée, etc. puis par la mise en place de plateformes et d’API permettant aux citoyens de consommer de façon transparente les services en question.  Notons que le positionnement cible de l’État n’est pas une plateforme parmi d’autres, en concurrence avec les startups et les entreprises privées, c’est une plateforme de fédération qui permet d’accéder à tous les fournisseurs. C’est une métaplateforme.

Ce salto arrière conférerait aux services publics une agilité et un dynamisme que l’organisation actuelle de l’administration n’est pas en capacité de fournir.

La transformation digitale publique : une alchimie encore à créer

Pour l’autre conférencier qui participait à cette conférence, Jean-Louis Beffa (voir ici notre article sur son intervention), la transformation digitale doit être impulsée par la direction pour changer durablement la culture et l’état d’esprit de l’entreprise.

Dans la sphère publique cela signifierait qu’une telle transformation continuera de peiner tant qu’elle ne sera pas portée explicitement par la tête de l’exécutif. Et pour cause, elle est reçue avec une résistance bien naturelle et doit faire face à des obstacles de taille :

  • Le décloisonnement des équipes de fonctionnaire dont l’esprit de corps s’oppose encore à la collaboration interministérielle (certaines équipes refusent par exemple de partager leurs données à d’autres entités publiques).
  • Le deuil d’une certaine conception de l’État : Omniscient, Omniprésent, Omnipotent. Et aussi de l’Administration : maîtresse de l’exécution décidée par les Politiques. C’est prendre le risque de perdre le contrôle.
  • Enfin, la réorganisation massive de l’administration et des fonctionnaires dont les fonctions seraient radicalement différentes dans le modèles évoqué par Laura Letourneau et Clément Bertholet.

Cette transformation prendra des formes différentes selon les services publics concernés. N’attendons pas un modèle unique commun à la demande de carte grise et à l’accueil des réfugiés ou pour délivrer des cartes de séjour.

Elle a déjà commencé dans certains domaines : à titre personnel, j’ai été positivement surpris du fait qu’on pouvait maintenant réserver son examen du code de la route pour 30 € quelques jours seulement à l’avance, sans inscription nécessaire auprès d’une auto-école.  Donc tous les espoirs sont permis !

 

*Cette conférence était organisée par l’ACADI avec la participation d’Intermines, de l’Ecole de Paris, de Telecom Paris et de la Société pour l’encouragement de l’industrie nationale 

Pourquoi Kodak a fait faillite?

By |06|01|2012|Stratégie de rupture|

Mercredi 4 janvier, le Wall Street Journal affirme qu’Eastman Kodak, qui compte 19.000 personnes, se préparait à se placer sous la protection du chapitre 11 de la loi américaine sur les faillites d’ici à début février.

L’action, après un plongeon de près de 30% mercredi, chutait encore de 6,15% jeudi vers 17H30 GMT, à 44 cents.

Dans un article de Lemonde.fr, François Sauteron, qui a travaillé 33 ans chez Kodak entre 1956 et 1990, apporte des éléments d’explication sur la faillite d’une société qui fut à la pointe de l’innovation pendant plus d’un siècle !

Depuis sa création en 1880 jusque dans les années 1990, Kodak a régné sur la photographie. Pourquoi l’entreprise a-t-elle raté le tournant du numérique ?

Le cœur de métier de Kodak est longtemps resté la chimie. Tout ce qui touchait à l’électronique pure était perçu comme relevant du « gadget ». Quand il a commencé à émerger, le numérique n’a pas été pris au sérieux par les responsables de l’entreprise. De grands progrès avaient été faits en matière de photographie argentique dans les années 1970-1980. Les pellicules étaient de plus en plus sensibles aux faibles lumières. Le grain, plus fin. Kodak disposait de dizaines de milliers de brevets et, pendant des décennies, la société a profité d’un statut de quasi-monopole. Aux yeux de ses dirigeants, Kodak semblait  insubmersible. Ils ont sans doute péché par orgueil, persuadés que l’entreprise réussirait à imposer dans la durée sa vision de l’image.

D’autres erreurs ont-elles été commises ?

À deux reprises, au moins, Kodak a tourné le dos à des innovations, qui ont fini par lui coûter cher. D’abord, elle a éconduit en 1945 un certain Chester Carlson, qui fonda par la suite la société Xerox, à l’origine des premiers photocopieurs. Cinq ans après cet épisode, l’entreprise mit à la porte un autre inventeur, Edwin Land, venu présenter un nouveau procédé de développement photographique, le Polaroïd. Après quatorze ans de procès, en 1991, Kodak fut condamné à verser près d’un milliard de dollars à la société fondée par Edwin Land pour contrefaçon de licence.

Source : http://www.lemonde.fr/economie/article/2012/01/06/le-numerique-n-a-pas-ete-pris-au-serieux-par-les-responsables-de-kodak_1626401_3234.html#ens_id=1622817

Évaluez votre capacité de disruption

Vous voulez réinventer votre business model ? Vous voulez transformer votre organisation, vos pratiques, ou vos outils pour affronter l’ère du digital ? Vous avez besoin d’éclaircir vos idées sur le quoi, le pourquoi et le comment ? Vous pouvez amorcer votre réflexion avec notre formulaire d’auto-évaluation.

Êtes-vous prêt pour la disruption ?

Bonne année 2018, année des Mégabits !

By |01|01|2018|Billet ISlean|

Voilà. 2017 s’est achevée, 2018 commence. C’est l’occasion pour nous de souhaiter à tous les lecteurs de notre blog et de notre newsletter une excellente année 2018. Puisse-t-elle voir pour vous l’entrée dans un cycle positif de transformations. Mais à quoi cette nouvelle année va-t-elle ressembler ? Nous l’imaginons placée sous le signe des données.

 

L’investissement reprend dans notre pays, comme nous pouvons le percevoir à notre modeste échelle. Et une grande partie de cet investissement concernera la transformation numérique. La numérisation du monde va en effet se poursuivre et la production de données va continuer à suivre sa courbe exponentielle, notamment avec l’essor des objets connectés.

L’IA renverse la force brute dans les échecs

Ces données vont être digérées par des intelligences artificielles toujours plus puissantes pour lesquelles les entreprises vont trouver de nouvelles applications. A titre illustratif, une nouvelle a récemment bouleversé la communauté des amateurs de jeu d’échecs dont je fais partie : si les logiciels battent les meilleurs joueurs humains depuis plus de 10 ans dans ce domaine, ils viennent de se faire bousculer par une IA de nouvelle génération. Il y a un mois, le programme Alpha Zéro, développé par une filiale de Google, après avoir seulement appris les règles du jeu et réalisé quelques heures d’auto-apprentissage, a surclassé Stockfish, qui était jusqu’ici le programme le plus fort. Du jamais vu : 28 victoires, 72 parties nulles, 0 défaites. Avec notamment quelques parties d’anthologie ou le programme montre une qualité exceptionnelle jusqu’ici réservée aux humains : l’intuition des coups justes, sans besoin de la force de calcul brute. Mais une intuition portée à un niveau surhumain. Y aura-t-il dès 2018 un Alpha Zéro pour disrupter votre business ?

Les données prennent de la valeur, il est logique qu’on voie apparaître le RGPD pour réguler leur gestion

L’autre problématique associée au foisonnement des données est l’entrée en vigueur en Europe du Règlement Général sur la Protection des Données (RGPD) en mai 2018, que nous abordions dans un article récent, et qui est un sujet majeur pour toutes les entreprises au vu des risques très sérieux de sanctions financières en cas de non-conformité, et au vu de la marche à franchir pour être conforme.

Les canaux se multiplient

Les données, ce sont aussi les messages que nous échangeons. En la matière, les outils de « messaging » comme Messenger, WhatsApp en occident, ou WeChat en Chine, sont en train de prendre progressivement la place des mails et les SMS. Cette année, les entreprises vont s’emparer de ces canaux, et développer par ailleurs des chatbots pour interagir avec leurs clients.

Ces outils ne sont ni bon ni mauvais, juste ce que nous en ferons

C’est donc une année riche en informations et données de toutes sortes qui s’ouvre devant nous. Espérons que nous saurons dompter ce flux et que ce sera pour le meilleur et non pour le pire.

Et pour dire définitivement au revoir à 2017, n’oubliez pas d’aller consulter le catalogue de nos meilleurs articles de l’année écoulée, que nous vous offrions pour noël. C’est ici : bit.ly/ISlean-consulting-Cadeau-de-Noël.

Le Lean veut-il la mort du Middle Management ?

By |22|11|2018|Excellence opérationnelle|

La relation entre le Lean Management et les Middle Managers est particulièrement critique. Nous pensons que la philosophie Lean est nécessaire pour rendre les entreprises performantes : orientation client, optimisation des processus pour supprimer les gaspillages, responsabilisation des acteurs de terrain. Mais cette philosophie peut remettre en cause le fonctionnement du middle management. Or aucune transformation n’est possible sans relai managérial. Il faut donc anticiper la place attendue du Middle Management dans la future organisation Lean.

Les approches Lean ou agiles aplatissent les pyramides.

L’organisation schématique pyramidale est très liée au modèle de taylorisation. L’approche Lean tend à supprimer tous les contrôles inutiles et à viser une diminution de la bureaucratie, au profit d’une responsabilisation des opérationnels. Dès lors, elle peut aboutir à une réduction des couches hiérarchiques et l’on peut comprendre que les personnes situées dans les couches en question ne soient pas alliées de la démarche si leur futur rôle n’a pas été anticipé.

Pour autant, il n’est pas question de supprimer tout échelon intermédiaire, tout management. Même les organisations dites « libérées » ou « holacratiques », définissent des cercles avec des « premiers liens. » Les unités opérationnelles sont nécessairement de taille réduite pour être efficientes et il faut donc nécessairement des rouages pour permettre une interaction harmonieuse entre les différentes unités, qu’elles soient de terrain ou du « siège ».

Et lorsque le besoin se fait sentir pour l’entreprise de faire bouger l’ensemble de l’organisation, les courroies de transmission intermédiaires que sont les managers restent indispensables.

Les transformation Lean doivent embarquer les managers

James Woomack, gourou du Lean Management, indique que la résistance du Middle Management est le premier obstacle à la transformation Lean. Une étude menée par son institut en 2007 montrait en effet que plus de 36% des entreprises considèrent cette résistance comme un obstacle, devant le manque de savoir-faire en termes de déploiement Lean (31%), et la résistance des employés (27,7%).

Comme pour toute transformation, il est nécessaire de s’appuyer sur la courroie de transmission que sont les managers. Il faut donc des managers convaincus, et prêts à transformer leur propre pratique.

Les nouveaux managers : d’une posture dirigiste à une posture de coach

Notre propre étude sur la révolution industrielle numérique le montrait : le rôle des managers change. Plusieurs dirigeants interrogés avaient attiré notre attention sur la fin des managers « qui savent et qui disent ce qu’on doit faire », au profit des managers qui « donnent du sens » et qui aident les équipes à progresser et à trouver leurs propres solutions. Comme le disait un des dirigeants que nous avons interrogés : « A la minute où se pose une question, le collaborateur est sur son smartphone en train de taper sur wikipedia et il aura en 30 secondes une réponse que son manager n’arrivera jamais à exprimer aussi bien. »

Tout cela est plus facile à dire qu’à faire. On ne s’improvise pas « coach » du jour au lendemain. C’est un chemin à parcourir, mais la bonne nouvelle est qu’une majorité de managers en sont conscients et sont prêts à y aller.

[Détente] : Bientôt une Barbie DSI ?

By |19|02|2010|Organisation DSI|

Mattel organisait en ce début d’année un grand sondage sur Internet pour définir le prochain métier de barbie… et le grand gagnant de ce sondage 2010 est le métier d’Ingénieur Informatique !

Voici l’info, reprise sur le site http://www.clubic.com/

De quoi susciter des vocations chez les petites filles du monde entier ? La vénérable Barbie, qui compte déjà à son actif 124 carrières différentes, endossera bientôt son 125e costume : ingénieur informatique. Une profession quelque peu inattendue, pour celle que l’on connait mieux comme une hôtesse de l’air ou une infirmière, décidée par Mattel à l’issue d’un vote organisé en ligne.

Barbie reste tout de même Barbie et chez Mattel, le geek se veut chic : l’informaticienne nouvelle portera une jolie paire de lunettes rose, une oreillette ainsi qu’un long tee-shirt décoré de 0 et de 1, et tapera ses lignes de code sur un petit netbook rose.

« En tant qu’ingénieur informaticienne, Barbie montrera aux petites filles que les femmes peuvent concevoir des produits offrant un impact sensible et positif sur la vie de tous les jours, comme inventer une technologie de conservation de l’énergie domestique ou programmer un appareil de surveillance des nourrissons », rêve déjà Nora Lin, présidente de la « Society of Women Engineers ».

Barbie Geekette sera accompagnée de Barbie Reporter, l’option qui a suscité le plus grand nombre de votes parmi la gent féminine, lors de son arrivée sur le marché, peu de temps avant les fêtes de fin d’année.

De là à penser que ce sondage Internet a été massivement relayé dans la « communauté » des Ingénieurs en Informatique, pour faire gagner ce beau métier à majorité masculine, il n’y a qu’un pas…

source : http://www.clubic.com/actualite-325208-insolite-barbie-ingenieur-informatique.html

Des « coffres forts » numériques au service des institutionnels et non de leurs clients

By |11|01|2013|Transformation digitale|

Didier Louvet, président d’Adminium, nous présente sur journaldunet.com le marché actuel des coffres forts numériques et ses différentes évolutions possibles.

Alors que les offres de « bureaux numériques » (…) en ligne fleurissent à l’initiative des banques, assurances et opérateurs telco, l’intérêt principal des particuliers pour ces service est détourné au profit exclusif des institutionnels qui les proposent… (…)

Imaginées initialement comme des outils de captation de la relation client, ces offres ignorent la coexistence et donc l’indispensable partage de cette relation entre les multiples institutionnels ou marchands dont le particulier est simultanément client. (…)

Pourquoi cette soudaine agitation ?

Peut-être ces institutionnels anticipent-ils à juste titre les 40 millions de clients particuliers « dématérialisés » à horizon 3 à 5 ans. Autant de clients à qui il faudra continuer de parler, alors même qu’ils n’ouvriront plus beaucoup leurs mails, ne recevront plus de courriers papier (…).
Le Bureau Numérique, comme partie intégrante de l’espace client, leur apparaît ainsi comme une solution efficace pour maintenir la relation client sous contrôle : tous les documents du client y sont conservés, il s’y connecte donc régulièrement … chaque connexion est un « contact client » particulièrement qualifié, une occasion de lui transmettre un message, une offre ou une proposition d’action … le tour semble joué !
Mais la solution du Bureau Numérique est-elle aussi évidente, aussi performante qu’elle le semble ?

(…)

La conception initiale de ces offres de Bureaux Numériques a été réalisée, avec pour principal objectif, d’apporter un bénéfice à l’institutionnel : garder le contrôle sur ses clients.
Les besoins réels des particuliers ne sont envisagés et considérés à ce stade uniquement dans la mesure où ils sont compatibles avec ce premier objectif.
(…)
La bonne (et unique) démarche en la matière est de raisonner « consumer-centric » :

(i) faire partir la réflexion du client et de ses besoins
(ii) intégrer ensuite à cette réflexion les objectifs et les contraintes du vendeur (l’institutionnel)
(iii) concevoir le service qui répond d’abord aux attentes clients en maximisant l’intérêt du vendeur

(…)

1 – Quelles sont les attentes et les besoins des clients ?

La vie économique « dématérialisée » des particuliers est de plus en plus complexe à gérer : L’information de consommation est pléthorique, multi-sources (…), multi-formats (…) et multi-supports (…).
Les particuliers attendent une solution simple et centralisée pour consulter et utiliser eux-mêmes leurs informations de consommation. Ils recherchent ainsi :

(i) un service capable d’agréger automatiquement toutes les informations issues de toutes les sources hétérogènes (universalité),
(ii) une impartialité / objectivité dans le traitement et l’exploitation de ces informations (neutralité),
(iii) une palette de services capables de leur simplifier concrètement la vie quotidienne (utilité).

Nous retiendrons ici l’attente principale des clients : l’universalité.

(…)

2 – Quelles sont les objectifs et les contraintes du « vendeur » (l’institutionnel) ?

À l’ère du numérique, le client particulier est de plus en plus exigeant, versatile et informé (réseaux sociaux, comparateurs, forums…). Face à la croissance des coûts d’acquisition, la capacité de fidélisation est un enjeu majeur.
Le vendeur cherche donc une solution pour

(i) apporter un service pertinent à ses clients (valeur ajoutée) et
(ii) développer un nouveau point de contact récurrent et privilégié avec eux (unicité).
Le Bureau Numérique doit ainsi s’intégrer parfaitement aux services « cœur-métier » proposés en ligne par le vendeur s’il entend maximiser l’efficacité relationnelle de chacune des connexions client.

Nous retiendrons ici l’attente principale des vendeurs : l’unicité.

La fréquence des visites clients, générée par l’intérêt du service, permet au vendeur d’augmenter le nombre et la récurrence des points de contacts utiles… En d’autres termes : le vendeur utilise l’intérêt du particulier pour des informations qui ne proviennent pas uniquement de lui pour générer une fréquence élevée de contacts qu’il va exploiter pour son propre compte.

L’unicité se nourrit donc de l’universalité.

3 – Comment concilier un service Universel pour le client et unique pour le vendeur ?

L’universalité du contenu présuppose un « libre accès » aux informations du client que le Bureau Numérique entend agréger (quelle qu’en soit la source).
Mais compte tenu de l’unicité des points de contact que génèrent ces informations au seul profit du vendeur… quel est alors l’intérêt pour un autre vendeur de laisser libre accès aux informations de ses clients à un Bureau Numérique tiers ? Aucune, sauf à accepter délibérément de perdre une occasion de contact avec ses propres clients !
En l’absence d’intérêt commun ou partagé, le Coffre-Fort Numérique proposé par chacun des institutionnels sera ainsi dans l’incapacité d’agréger les informations clients des autres vendeurs.
Nous sommes ici au cœur de la problématique … les attentes (i) d’universalité client et (ii) d’unicité vendeur sont incompatibles !

Face à cette incompatibilité, deux choix sont possibles :

Choix n°1 : Renoncer à l’universalité.

C’est le choix qu’opèrent actuellement les institutionnels (…). Réduire le service proposé à un simple espace de stockage dont les sources d’agrégation sont extrêmement réduites et que l’utilisateur doit principalement alimenter lui-même.
L’attente principale du client n’est pas satisfaite. (…)
Chronique d’un fiasco annoncé !

Choix n°2 : Renoncer à l’unicité.

C’est-à-dire permettre et encourager les autres Institutionnels/vendeurs à communiquer avec leurs propres clients au sein même du Bureau Numérique.
C’est un choix audacieux, novateur, voir révolutionnaire. (…)
Compte tenu de la multiplicité des offres de bureaux numériques qui est proposée aux particuliers, il est mathématiquement impossible qu’un institutionnel capte 100% de ses propres clients au sein de son offre… Une partie non négligeable de la clientèle de cet institutionnel sera donc utilisatrice d’un bureau numérique proposée par un autre institutionnel dont elle est également cliente.
Si l’institutionnel concerné s’oppose à transmettre les informations de ses clients à ces Bureaux Numériques tiers, ces derniers s’opposeront eux aussi à transmettre leurs propres informations… retour à la case départ de l’universalité.

(…)

En conclusion

Le « Bureau numérique », qu’il soit proposé par un institutionnel ou un indépendant, doit intégrer une
dimension relationnelle entre l’utilisateur particulier et ses différents institutionnels/vendeurs.
Chaque institutionnel proposant un Bureau Numérique doit ainsi se préparer

(i) à développer des espaces relationnels dédiés aux autres institutionnels/vendeurs au sein de son espace
(ii) à interagir avec ses propres clients au sein des « Bureaux Numériques» proposés par les autres institutionnels ou indépendants.

(…)

Source : http://www.journaldunet.com/ebusiness/expert/53089/coffre-fort-numerique—quel-est-l-interet-en-matiere-de-relations-clients.shtml

Les non-stratégies : comment certaines stratégies n’en sont pas

By |14|09|2012|Stratégie de rupture|

Fort de 25 ans d’expérience professionnelle dans plus de 15 pays, spécialiste de la stratégie d’entreprise, John S. Hamalian a écrit une série de trois articles sur la stratégie dont nous publions des extraits du premier. Dans cet article, il explique que de nombreuses organisations pensent avoir une stratégie alors qu’elles n’en ont pas réellement. Il développe différents exemples sur processexcellencenetwork.com

(…)
Without a well-structured plan an organisation runs the risk of meandering through the year, either with their heads stuck too high in the long-term clouds or mired in short-term firefighting on the ground. In either case they will likely not meet their intended outcomes, which need to be the result of a balanced combination of strategic, tactical and operational plans. Lack of a proper strategy will also make it very difficult to carry out process excellence initiatives, potentially resulting in ad hoc improvements that are not contributing to the overall organizational needs.

The big issue here is that many of these organisations do not think they lack a plan. They often believe they have a solid strategy in place and are driving their actions with it. But in many cases there is a disconnect between reality and what many would consider to be evidence of sound planning techniques. These ‘non-strategies‘ usually fall into the following categories:

Non Strategy #1: ‘The Wall Placard Strategy’

Some organisations will go to great lengths to create wonderful Vision and Mission statements and proudly post them all over their walls. But then their planning stops there. While starting with a Vision and/or Mission statement is fine, those long-term high-level goals need to then be translated into more tangible objectives and action plans. (…)

Non Strategy #2: ‘The Stratospheric Strategy’

These strategies are too high-level. They start in the clouds and never come down, making them extremely difficult to make actionable. While going a bit beyond the Vision/Mission statement level, they still remain too generalized in nature. This type of strategy is marked by an intense focus on obscure long-term goals or vague bullet-point objectives, but not much else. (…)

Non Strategy #3: ‘The KPI Strategy’

When asked to show their strategies, some organisations excitedly whip out a beautiful powerpoint slide that states their goals in terms of a metric. Examples are ‘double revenue in three years’ or ‘achieve 20% margin by 2013’. This is not a strategy. This is merely a high-level metric that numerically states a business goal. While barely articulating the ‘what’, this practice completely misses the ‘how’ that is so critical to successful attainment of the goals. (…)

Non Strategy #4: ‘The Govern-less Strategy’

Some strategies are actually quite well constructed, but they miss one crucial element: a governance process. (…) A strategy is completely worthless unless it has a mechanism for sustainment during the whole year, with a clear process on who will lead the reviews, what specifically will be covered and what the frequency will be. A governance process allows the strategy to be more than just a one-time exercise, it literally is the life force that keeps the strategy alive and well during the whole year.

Building a strategy may seem like a fairly easy endeavor, but as we can see above there are many scenarios where the effectiveness of the planning can be significantly compromised if not constructed and executed well. A solid plan does much more than just lay out objectives; it aligns the entire team, engages them in the organizational endeavors, provides them with a sense of purpose and gives clarity to expected outcomes. (…) A clear strategy with objectives and action plans can provide the fuel to ensure that improvement projects are aligned to the vision, adding value to key priority areas and are contributing to the bottom line.
While both mouse and man may sometimes fail in their execution, having a solid plan is an effective way to define needs, outline expectations, align the organisation and help to cultivate a culture of long-term thinking.

John will be discussing what elements make a great strategy in an upcoming article , to be published in the weeks ahead.

Source : http://www.processexcellencenetwork.com/organizational-strategies-for-innovation-continuou/articles/the-non-strategy-how-some-strategies-are-not-strat/

Point de vue : Lean IT et Production Informatique

By |22|02|2010|Organisation DSI|

Eric Villesalmon, associé fondateur d’ISlean consulting, nous livre son point de vue sur les apports du Lean Management dans l’univers particulier de la production informatique :

Pour qui connaît le petit monde de la production informatique, il est aisé de constater que les principes du Lean Management sont à l’exact opposé des pratiques que l’on y rencontre au quotidien.

Mais alors les dirigeants, managers et consultants de production font-ils fausse route ? Les productions informatiques n’arrivent-elles pas à être efficientes et orientées clients ? ITIL est à jeter aux orties ?

Rien de tout ça en réalité. Il s’avère juste que les métiers de la production informatique ont atteint un palier de leur évolution et que passer à l’étape suivante va nécessiter de se focaliser sur des sujets peu défrichés jusqu’à présent et également de repartir dans des directions différentes voire opposées dans certains cas. Le Lean management est une démarche adaptée à la maturité actuelle des productions informatique et qui peut leur permettre d’atteindre un nouveau palier d’efficience et d’ajustement de la valeur délivrée à leurs clients.

En effet, le monde de la production a profondément évolué ces 10 dernières années. Ses métiers se sont structurés, professionnalisés et ses pratiques se sont standardisées, sous l’impulsion notable d’ITIL mais également, ne l’oublions pas, par mimétisme des autres pratiques au sein de l’entreprise ou de la DSI (TQM, Balanced Scorecard, Orientation Client, l’automatisation …). On y voit même des consultants, c’est dire !

Il n’empêche qu’il y a encore loin de la coupe aux lèvres :

  • Le succès d’ITIL est tel que l’on oublie parfois que l’on partait de très bas. En conséquence on ne compte plus le nombre d’implémentations ITIL où la principale, sinon l’unique, valeur ajoutée d’ITIL est d’avoir créé un langage compréhensible entre la « Prod. » et les Etudes ; voire parfois dans des secteurs tels que la banque un langage compréhensible entre la « Prod » et les métiers (ou la Maîtrise d’ouvrage). Certes ce n’est pas rien, c’est même très important, mais il reste encore du chemin à parcourir pour que la production puisse contenter des clients rendus plus exigeants dans un contexte économique difficile et peu prédictible.
  • Le succès d’ITIL est même pour tout dire gênant car il donne l’illusion à beaucoup que « ça y est… on a enfin trouvé le Graal ». Ce serait tellement plus simple si c’était vrai.

Ne rêvons pas, tous ces outils n’ont que peu changé les mentalités au fond.

De l’opérateur au directeur de la production, l’homo productis reste avant tout :

  • un spécialiste de la technique : certes on pourra m’objecter qu’en gravissant les échelons hiérarchiques il perd sa spécialisation technique. Oui bien sûr il la perd mais en élargissant son spectre d’intervention et puis au fond notre homo productis manager il sait bien, lui, que tout ça c’est pas nouveau, qu’il avait des compétences techniques sur plein de sujets bien avant « ces petits jeunes qui croient tout savoir sur VMware mais qui feraient bien de s’inspirer de ce qu’on faisait déjà à l’époque avec zVM. ». D’ailleurs comme il est devenu bien plus sage il n’en parle même plus car il sait bien qu’il ne sera pas écouté.
    Un soldat de commando : un spécialiste du coup de main en période de crise, avérée ou imminente. (mais plutôt avérée car c’est plus drôle – avec tous ces dirigeants qui s’inquiètent et qui pour une fois s’intéressent, pour quelques heures ou jours, à l’informatique).
    Un amoureux du travail bien fait : qui privilégie toujours le zéro impact sur la qualité de service à la mise en production d’un changement fusse t-il urgent. Alors forcément quand on lui demande de faire vite et bien, il fait avant tout bien et quant à aller vite « qu’y z’y vienne pour me dire comment je dois travailler, et puis de toute façon ils sont content maintenant, ça marche non ? ».

Cette histoire et les hommes qui la composent font qu’aujourd’hui la production informatique reste de l’artisanat qu’on tente maladroitement de tayloriser alors que c’est inapproprié et que cela ne représentera jamais une avancée en terme d’efficience ou d’efficacité, notamment parce que c’est complètement contre culturel.

Le lean management représente de mon point de vue une bonne chose pour la production informatique car malgré quelques outils contre-intuitif, il est beaucoup plus en phase avec les éléments structurants de l’état d’esprit des hommes de Prod. En effet le lean s’appuie de manière équilibrée sur le terrain et le management pour identifier et mettre en œuvre des améliorations. Il est basé sur des cycles essais / erreurs (PDCA) courts et dont on doit mesurer les résultats concrets avant de les valider, par opposition à des grands développements conceptuels et intellectuels qui auraient peu de pertinence lors de la mise en œuvre.

Pour imposer une vision Lean, il faut lutter à contre-courant des habitudes sur les points suivants :

  • La surqualité car elle se traduit toujours par une perte de contrôle totale sur l’axe temps et force la spécialisation technique des ressources à tous les niveaux. Je milite pour une polyvalence accrue des compétences de niveau 2 en laissant seule l’expertise hyperspécialisée. C’est parfois contre-intuitif pour les personnels de production mais en revanche cela est en phase avec un état d’esprit généralement ouvert et intéressé par la découverte de nouvelles technologies. Les avantages en sont multiples : meilleure maîtrise et contrôle des délais (en réduisant drastiquement les temps d’attente), meilleure maîtrise des délais globaux en permettant de définir des lots de réalisation homogènes pour les activités de gestion des changements et donc de rentrer dans des logiques proches de celles de gestion du temps de cycle ou de temps takt que l’on trouve dans l’industrie manufacturière. Une condition toutefois : l’amélioration de la polyvalence ne se décrète pas c’est une cible et un chemin qui doit être construit avec tout le monde et qui se fait dans la durée.
  • La segmentation des activités de niveau 1, 2 et 3. Mais me direz vous, c’est ce que nous dit ITIL depuis toujours. Certes mais force est de constater que le message n’est pas toujours bien compris par le terrain, probablement pour des raisons de méthode. Ces choix d’organisation passent par de la contextualisation et nécessitent l’appropriation de ces mécanismes et indicateurs de performance par le terrain. Souvent les implémentation ITIL se font de manière très top-down, et doctrinales « ITIL a dit qu’il fallait faire comme ça » – c’est généralement faux d’ailleurs ITIL n’a jamais dit qu’il fallait faire de telle ou telle façon – mais malheureusement c’est le travers dans lequel beaucoup sont tombés.
  • Le sens du client et le sens de l’anticipation. C’est peut-être le plus dur. La prod ayant un sens de la réactivité hypertrophié et ne voyant le client que par ce prisme. « Postez moi une demande, un besoin, si possible avec des délais impossibles, et pendant que le service client explique que c’est pas possible, moi je fais ». Malheureusement plus ça va et moins ça marche même s’il faut bien le reconnaître : encore souvent la prod. fait des miracles. Le corollaire c’est qu’ayant usée toute son énergie à ramener la situation au nominal on a plus ni l’énergie ni l’intérêt de faire en sorte que cela ne se reproduise pas. Je pense que le Lean management par l’intermédiaire des ateliers Kaizen permet à la production de progresser à son rythme sur ces points et d’installer pas à pas un culture plus importante de la prévention et de l’anticipation. Inutile d’essayer de l’imposer en force c’est peine perdue.
  • – Dernier point et ce sera une question plus qu’une affirmation. N’a-t-on pas trop communiqué sur l’absolue nécessité de la continuité de service au risque de figer la production dans des positions extrêmement rigides sur les risques de discontinuité d’activité et ce de manière parfois déconnectée des réalités du métier. Le métier n’a-t-il pas autant besoin de continuité au quotidien que d’agilité dans le court et le moyen terme ?

Eric Villesalmon

"Nuage", l’autre Cloud français

By |06|01|2012|Stratégie SI|

Les remous autour du grand projet de Cloud français Andromède et la volonté d’Atos de rejoindre le consortium ont eu tendance à éclipser un autre projet de Cloud français : « Nuage » fortement orienté Open Source et disposant d’une enveloppe budgétaire de 10M€.

Voici un article du site Le Monde Informatique présentant les acteurs de ce projet :

Dans l’appel d’offres relatif au cloud computing au sein du Grand Emprunt, le projet Nuage décide de sortir de l’ombre et de communiquer. Il est composé de 7 PME : Celeste, FAI et concepteur de datacenter ; Non Stop Systems, SSII spécialisée en solutions d’infrastructures sécurisées ; Oodrive éditeur de solution professionnelles de sauvegarde et de partage de fichiers en ligne ; DotRiver qui propose des solutions de virtualisation et de centralisation de poste de travail ; Network Consulting, hébergeur ; New Generation SR, conseil en responsabilité sociale des entreprises.Deux équipes des projets REGAL (répartition et gestion des applications à large échelle) et PHARE (sur les futurs générations des réseaux télécoms) du laboratoire LIP6 de l’université Pierre et Marie Curie.

Selon Nicolas Aubé, PDG de Celeste, « l’idée est de créer le cloud computing de demain : ouvert à des composantes matérielles et logicielles externes, réparti sur un maillage régional français, et hébergé dans des datacenters écologiques, faiblement consommateurs d’énergie ». Le groupe souligne aussi l’importance de la localisation des données sur le territoire français.

Open Source et datacenter pilote

Concrétement, il s’agit d’un projet de R&D qui doit durer deux ans avec une forte connotation Open Source, pour trouver des solutions alternatives à celles existantes. Pendant cette durée, un datacenter pilote va être créé pour proposer des offres clouds. Nicolas Aubé indique « nous souhaitons travailler sur des datacenters évolutifs avec des modules verticaux optimisant mieux la consommation d’énergie. Les entreprises pourront s’interconnecter pour chercher des ressources ou des services ». Sur la partie du matériel utilisé, le dirigeant que rien n’a été encore choisi, mais il souhaite que les solutions proposées par Nuage soit compatible avec le plus grand nombre de constructeurs.

source : http://www.lemondeinformatique.fr/actualites/lire-nuage-une-alternative-cloud-au-projet-andromede-47292.html

ISlean’sider n° 5 – Stratégie

By |31|01|2015|Billet ISlean|

Faire du Service Public des Services Communs

Selon l’étude mondiale biannuelle de l’ONU, 193 pays ont été classés selon trois critères : les services en ligne, la qualité des infrastructures et l’Open Data. La France gagne des places grâce à l’innovation des services en lignes et aussi suite à la refonte d’Etalab et au partage des données publiques, impliquant la participation des citoyens. Même si l’Europe perd 3 pays dans le top 10 en 2 ans, la France gagne des places. Ne boudons pas notre plaisir ! (Source : ONU, septembre 2014)

La France dans l’E-GOV : 4ème rang mondial / 1ère place en Europe

Moderniser les services publics, rendre plus efficaces les services de l‘Etat, du gouvernement ou les rouages de la machinerie administrative en général. Une belle « face nord » ?

Bien sûr on trouvera pléthore d’arguments, de témoignages décourageants, d’initiatives avortées ou sabordées, de remarquables études n’ayant servi qu’à caler une armoire, pour permettre aux zélés zélateurs d’abonder dans le sens du « y a rien à faire », « impossible de déplacer la moindre couche dans le mille feuille », …

Pourtant nous pensons qu’il est possible de réinventer l’action publique. Ambitieux ou naïf ? Les nouvelles technologies et les nouvelles méthodes de travail comme le Lean management (et surtout la combinaison des deux) injectent de nouvelles perspectives.

Les innovations technologiques sont globalement bien perçues par les agents et plébiscitées par les usagers. Elles ouvrent des nouveaux usages et un renouvellement de la relation aux services publics si :

  • La hiérarchie accepte de lâcher prise aux bonnes pratiques impulsées par les agents de terrain,
  • l’auto-responsabilisation des agents est respectée et non plus suspectée (par les agents et leur encadrement),
  • l’équipe libère la capacité d’initiative et d’actions de 97% des agents au lieu de les bloquer en pensant contrôler les 3% d’écarts,
  • les marchés publics s’ouvrent pour casser les situations de rente ou de blocage qui défavorisent souvent les PME agiles et innovantes et privilégient les grands groupes

Notre expérience nous a prouvé qu’il est possible de fonctionner et de réussir autrement :

  • en mettant sur pied des équipes agiles avec les bons accélérateurs (technologiques, management, gouvernance, et les bonnes ressources…).
  • En renversant des approches centralisatrices et top-down de diffusion d’information par des logiques de création de plateforme ouvertes et enrichies par tous: exemple data.gouv.fr

Le SGMAP et la DISIC sont là pour promouvoir ces innovations tant technologiques que managériales et démontrer par l’exemple et sur le terrain que ça marche.

Le numérique n’est pas uniquement un sujet technologique.

Au niveau de l’Etat, Thierry Mandon (SGMAP) a annoncé le lancement d’un vaste programme de diffusion de la culture numérique au sein de l’état pour « intégrer davantage les technologies du numérique et ses méthodes innovantes ».

Le citoyen est également invité à devenir davantage contributeur de ces changements en tant que Netizen (citoyen connecté) : la concertation nationale organisée par le CNNum (http://contribuez.cnnumerique.fr/) sur les « enjeux sociétaux et économiques liés aux transformations numériques » ouvre le débat à tous les acteurs de la société, en s’appuyant sur l’intelligence collective.

Dans tous les cas, les règles d’or de la transformation du secteur public pour retrouver l’audace d’agir et de s’améliorer :

  • Ecouter la voix du client (l’usager) et savoir l’impliquer (Netizen),
  • « Faire en allant » (dans l’esprit Lean Startup) : faire et ajuster en cours de route plutôt que réfléchir 107 ans,
  • Faire avec et pour (associer les agents de terrain),
  • Mettre un niveau d’énergie élevé et expérimenter les nouveaux usages.

Bilan 2010 : Quel potentiel pour les tablettes tactiles ?

By |24|12|2010|Transformation digitale|

Présenté par son créateur, Steve Jobs, comme une révolution, l’iPad a permis l’expansion rapide d’un marché jusque là « de niche ». En effet son succès considérable (20 millions d’unités vendues dans le monde cette année) amène la concurrence à proposer une offre diversifiée.

Pour autant, difficile de dire si cette « iPad Mania » ne sera qu’un phénomène de mode oublié dans quelques années ou les prémices d’une nouvelle façon d’utiliser les outils informatiques.

Voici un article du site Le Monde Informatique traçant le bilan 2010 de ce marché spécifique :

Après la vague netbook, le produit phare de cet fin d’année en France devrait être la tablette tactile. « C’est l’heure des ardoises médias, et de tous les terminaux qui peuvent prendre place entre les smartphones et les PC portables, estimait le cabinet IDC dans une étude publiée au printemps 2010. La forte demande des consommateurs sera entraînée par le nombre et la variété des services et des contenus disponibles ». Emboîtant le pas à l’iPad d’Apple et marqués par l’énorme succès dont il a bénéficié – plus de deux millions d’unités vendues en seulement deux mois – de nombreux constructeurs se sont lancés dans l’aventure des tablettes avec un état d’avancement plus ou moins long : Asus avec l’Eeepad, au même titre que MSI, avec sa WinPad faisaient partie des premiers à s’engouffrer dans la brèche, avant d’être rejoints par d’autres fabricants comme Dell et sa Streak sous Android, Samsung et sa Galaxy Tape, ou encore la Folio de Toshiba. De son côté, HP devrait bientôt annoncer la sortie d’Hurricane, un terminal tournant sous le WebOS de Palm, tandis que chez RIM, le lancement commercial de sa tablette Playbook est programmé début 2011 aux Etats-Unis.

Les tablettes ne devraient pas remplacer les PC

Selon Gartner, il aurait été vendu cette année pas moins de 19,5 millions de tablettes dans le monde, dont 61% aux Etats-Unis. Le marché devrait encore progresser de 181% en 2011 à près de 55 millions d’unités. Mieux, le cabinet d’analyste estimait il y a quelques mois que ce secteur se décuplerait en 4 ans, pour atteindre 208 millions d’exemplaires écoulés en 2014. Pourtant, certains ne partageaient pas du tout cet optimisme. Dans un rapport publié en décembre le cabinet Deloitte considérait que le marché mondial ne devrait s’établir qu’à plusieurs dizaines de millions d’exemplaires livrés en 2014. Selon lui, l’utilité des tablettes serait assez limitée, aussi bien pour le marché grand public que pour le marché professionnel, en raison d’une offre de contenus étroite et également de la nécessité de s’abonner auprès d’un opérateur mobile D’où un taux de croissance des ventes qui serait inférieur à ce qui est attendu par d’autres. De plus Gartner considérait que les tablettes ne remplaceraient qu’environ 10% des ordinateurs de bureau d’ici à 2014, ces terminaux n’étant pas susceptibles de développer les capacités étendues de création de contenu que les utilisateurs trouvent dans les PC.

Les entreprises s’y intéressent aussi

En attendant, les prochaines générations de tablettes tactiles pourront bientôt exécuter plusieurs systèmes d’exploitation et faire tourner de puissantes applications cloud. Selon les analystes du groupe Linley, des processeurs plus rapides devraient permettre à ces appareils d’exécuter les applications plus rapidement, et la virtualisation pourra aider à une consolidation des applications, c’est-à-dire à un usage optimisé des ressources. Enfin, le Gartner conseille aux entreprises de se pencher sérieusement sur l’impact de l’iPad et des tablettes PC en général. Le cabinet recommande à ces dernières de se préparer à soutenir les utilisateurs et de budgétiser un plan en ce sens pour la mi 2011. L’intégration de ces équipements au sein des entreprises commence à faire son chemin, comme chez Natixis ou Mercedes-Benz, qui ont déjà équipé quelques salariés sur des métiers spécifiques, comme les forces de vente et d’autres professions nomades. Le secteur public avec le secteur médical ou l’éducation nationale testent depuis quelques mois ces tablettes au sein des hôpitaux ou des écoles.

source : http://www.lemondeinformatique.fr/actualites/lire-bilan-tablettes-2010-l-an-1-du-phenomene-32481.html