Accéder au contenu principal

Le leadership visionnaire : l’élément essentiel du succès dans le secteur de l’IT

  Par Antony Derbes, Président d’Open Lake Technology Dans le monde dynamique et en constante évolution de la technologie de l'information, le leadership joue un rôle crucial. Je suis convaincu que le bon leadership est la clé pour naviguer avec succès dans cet environnement complexe. Le secteur de l'IT est caractérisé par son rythme effréné, ses avancées rapides et ses défis sans cesse changeants. Dans un tel contexte, un leadership fort et visionnaire est essentiel pour guider les équipes vers le succès. Mais quels sont les éléments clés d'un bon leadership dans le domaine de la technologie ? Tout d'abord, un leader efficace dans le secteur de l'IT doit posséder une vision claire de l'avenir. Cette vision doit être à la fois ambitieuse et réalisable, guidant l'entreprise vers de nouveaux horizons tout en tenant compte des réalités du marché et des capacités de l'organisation. En tant que leaders, nous devons constamment anticiper les tendances, identif

Je t’aime, moi non plus : la difficile relation entre les GAFAM et les États

gafam

Guerre d’information et d’influence au Sahel pour Facebook, prise de position de Twitter contre les messages de désinformation sur les vaccins, la place prépondérante qu’occupent les géants numériques dans les économies occidentales ne se calcule plus simplement en parts de marché.

Les GAFAM (Google, Apple, Facebook, Amazon et Microsoft) jouent désormais un rôle central dans notre espace public – rôle qui confère à ces géants une influence qui dépasse celle des grandes entreprises classiques.

Ces dernières sont donc sous le radar des États qui n’hésitent pas à brandir la menace du démantèlement, comme dans le cas de Google ou de Facebook, face à des activités de plus en plus complexes à encadrer.

Un rôle dans l’espace législatif

La centralité de ces GAFAM pose en effet trois dilemmes que les régulateurs ont du mal à surmonter à l’heure actuelle.

D’abord, la nature de leur activité pourrait rendre obsolète l’arsenal à la disposition des régulateurs qui chercheraient à mieux encadrer leur activité.

Ensuite, quand bien même les régulateurs parviendraient-ils à encadrer l’activité des GAFAM, sauraient-ils le faire et pourraient-ils le faire sans réduire l’efficacité de ces entreprises ?

Car ce sont bien les effets d’échelle des GAFAM qui placent ces entreprises en position dominante. Mais contrairement aux entreprises leaders du passé, cette position dominante ne se traduit pas forcément par une hausse des prix, indicateur habituellement utilisé pour mesurer l’intérêt du consommateur qui, lui aussi, bénéficie de cette efficacité. C’est d’ailleurs le principal argument avancé par ces mêmes géants devant la puissance publique américaine.

Enfin (et corollaire du précédent dilemme), ces géants du numérique pourraient présenter un risque systémique pour les économies européennes et américaines. En s’appuyant sur les nouvelles technologies, afin de le rendre le plus efficace possible.

Une multitude de fournisseurs et de consommateurs en dépendent par conséquent : près de 500 000 PME américaines dépendent d’Amazon aux États-Unis. La question du risque systémique que présentent ces géants est ainsi posée : sont-il devenus « trop grands pour faire faillite » (« too big to fail ») ?

Ces trois dilemmes expliquent pourquoi la relation entre GAFAM et États s’avère souvent compliquée : les règles du jeu manquent parfois de clarté et l’objectif même du régulateur s’en trouve parfois faussé.

C’est peut-être pourquoi, en matière de régulation, Américains et Européens ont fait des choix radicalement différents.

En Amérique, la menace de démantèlement

Les autorités judiciaires américaines se sont souvent focalisées sur la taille des entreprises en question et sur leur capacité à limiter la concurrence sur les marchés.

Le pays a mis en place un dispositif conçu pour garantir le maintien de la concurrence dès la fin du XIXe, avec le Sherman Act de 1890, et au début du XXe siècle, avec le Clayton Act et la Federal Trade Commission Act de 1914.

Ce dispositif de lois « antitrust » constitue encore à ce jour le cadre légal dans lequel la loi de la concurrence s’exerce aux États-Unis.

Il vise notamment à interdire toutes les pratiques de concentration qui viseraient à restreindre l’activité économique, à bannir les pratiques de concurrence déloyale et à restreindre l’influence des entreprises qui pourraient occuper une place prépondérante dans le marché.

Dans le cadre de ce dispositif, la menace qui a souvent plané sur les entreprises visées par les plaintes des autorités de la régulation américaine est celle d’un démantèlement.

L’exemple historique le plus connu est sans doute celui de Standard Oil, ou alors, celui, plus récent, de Microsoft (qui l’aura finalement évité).

Au cœur de cette approche réside l’idée qu’une entreprise dominante doit être démantelée afin que les nouvelles entreprises qui en naissent puissent se faire concurrence entre elles. C’est la première condition nécessaire à l’existence d’une concurrence dite « pure et parfaite » : celle de l’atomicité du marché qui garantit qu’aucune entreprise ne soit assez prépondérante pour avoir une quelconque influence sur les prix.

Mais l’approche comporte un inconvénient majeur : il suppose que la puissance publique devienne acteur d’un marché qu’elle prétend réguler – et peut se trouver ainsi juge et partie en démantelant une entreprise et en influençant, volontairement ou non, les motivations des autres acteurs, actuels ou futurs, du marché. L’un des dirigeants de Microsoft le soulignera lors du procès de 1999 : comment justifier le démantèlement d’une entreprise qui proposait des outils populaires et influents et qui avait pris toutes les bonnes décisions stratégiques ?

Contrairement à Standard Oil d’ailleurs, qui s’était développé grâce au rachat de concurrents, Microsoft avait d’ailleurs choisi la piste de la croissance organique, reposant sur le développement de ses activités. D’autres rajouteront également que le recul historique nous laisse penser que la décision de démanteler Microsoft aurait aussi pu profondément peser sur les décisions de jeunes entrepreneurs comme Elon Musk et Mark Zuckerberg.

À l’heure où le Département de la Justice américaine prépare son offensive contre deux autres géants, Google et Facebook, le même débat pourrait se poser. La position dominante de Google est plus facile à mesurer, mais comment démanteler une entreprise dominante sans biaiser les dynamiques de marché ?

Europe : entre amende et régulation du business-model ?

Le traité européen de 1957 interdit à deux entreprises privées (ou plus) de chercher à restreindre l’activité économique ou à contrôler les prix.

Le traité limite ainsi les possibilités de fusions et d’acquisitions, réservant à la Commission européenne un droit de veto en la matière. La Commission européenne dispose également d’un pouvoir d’investigation. Elle peut ainsi infliger des amendes à des entreprises qui auraient violé les règles de concurrence ou pour punir l’abus de position dominante d’une entreprise.

Ainsi, Google, mais aussi Microsoft et le fabricant de microprocesseurs Intel, ont dû payer des amendes souvent impressionnantes après avoir été accusés d’avoir profité de leur position dominante, d’avoir empêché la concurrence de se développer et d’avoir ainsi protéger, de manière artificielle et contre l’intérêt du consommateur, leur place de leader.

Mais ces amendes représentent une part tout à fait négligeable du chiffre d’affaires de ces géants du web : à titre d’exemple, en 2018, l’amende de 4,3 milliards d’euros qu’a infligée la Commission à Google représente moins de 4 % de son chiffre d’affaire, soit une perte que le géant a pu combler en moins de deux semaines.

Le règlement général sur la protection des données (RGPD) que l’Union européenne a mis en place en mai 2018 peut potentiellement changer la donne.

Il oblige les géants du numérique à obtenir le consentement de l’utilisateur pour recueillir ses données privées. Les entreprises qui veulent pénétrer le marché européen doivent s’y conformer.

L’État de Californie, qui abrite la Silicon Valley, a adopté un standard très proche.

De même, l’Australie et le Japon ont adopté des réglementations similaires, Tokyo et Bruxelles trouvant même une opportunité de coopérer sur le terrain de la protection des données. Le règlement s’impose ainsi de plus en plus comme un standard international qui pourrait ainsi forcer une transformation partielle des business-model de ces géants américains (et un jour chinois) qui ne peuvent se priver de ces marchés. Il faut cependant noter que le dispositif actuel n’est pas encore en mesure de pleinement imposer cette transformation et exigera des mises à jour à venir.

Rendre les marchés « contestables »

Développée par l’économiste William Baumol, puis formalisée par les prix « Nobel » d’Économie Eric Maskin et Jean Tirole en 1990 puis en 1992, l’idée des marchés contestables suggère que l’on peut forcer une entreprise dominante à se comporter comme si elle faisait face à une véritable concurrence, en laissant planer l’ombre d’une possible émergence de concurrents demain.

Dans la mesure où l’entreprise craindrait la concurrence demain, sa capacité et sa volonté d’augmenter ses prix ou de se comporter de manière abusive vis-à-vis des autres parties prenantes du marché seraient ainsi limitées. Le marché contestable exige une absence de barrière à l’entrée et de barrière à la sortie (qui ne serait qu’une barrière à l’entrée déguisée) – et donc l’existence d’une entreprise qui pourrait venir défier le leader dominant.

En théorie, l’absence de barrières et l’existence de ce challengeur potentiel constitueraient une pression suffisante pour pousser le leader du marché à se comporter comme s’il était sur un marché autrement plus concurrentiel.

Rendre le marché des GAFAM « contestable » constitue ainsi une alternative intéressante tant elle pourrait réduire l’empreinte de la puissance publique dans les dynamiques de marché : faire en sorte que les marchés de ces géants deviennent contestables en les ouvrant le plus possible à des concurrents de l’extérieur en réduisant les barrières à l’entrée. Dans cette configuration, la puissance publique ne serait pas celle qui choisirait les vainqueurs et les perdants de par son action. Elle ne ferait qu’assurer le bon fonctionnement du marché qui déciderait de l’issue des dynamiques concurrentielles.

L’ombre de la Chine

La création de marchés contestables fait l’objet de débat tant la mise en pratique peut s’avérer problématique compte tenu de l’importance des écosystèmes numériques, qui limite la possibilité de passer d’un fournisseur numérique à un autre, et des effets de réseau.

Il faut aussi noter que dans le contexte actuel dans lequel le protectionnisme pourrait devenir l’outil de préférence des puissances publiques, non seulement sur le plan du commerce international mais aussi sur le plan du contrôle des entreprises numériques, comme le montre l’exemple de TikTok, ouvrir le marché à la concurrence n’est pas l’option que favorisent les États à l’heure actuelle.

Pourtant, l’idée n’est pas sans valeur, car elle pose deux questions fondamentales sur l’absence de concurrence dont jouissent les GAFAM pour le bon fonctionnement de l’économie numérique de demain.

En effet, l’incapacité des pays européens à produire leurs propres géants du numérique devient pesante dans ce contexte. Cette absence de concurrence, qui aurait pu réduire de manière considérable la centralité des GAFAM, pèse énormément dans les réglementations telles qu’elles sont établies aujourd’hui.

Les autres candidats pourraient venir de la Chine et de ses BATX (Baidu, Alibaba, Tencent et Xiaomi). Les réserves qu’éprouvent tant les opinions publiques que les pouvoirs publics à l’égard de Pékin empêchent cependant les BATX de jouer ce rôle à l’heure actuelle. Leur transformation et leur respect du droit européen, et plus généralement des réglementations occidentales, confèreraient à ces géants un rôle fondamental demain.The Conversation

Jeremy Ghez, Professor of Economics and International Affairs, HEC Paris Business School Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté

Comment les machines succombent à la chaleur, des voitures aux ordinateurs

  La chaleur extrême peut affecter le fonctionnement des machines, et le fait que de nombreuses machines dégagent de la chaleur n’arrange pas les choses. Afif Ramdhasuma/Unsplash , CC BY-SA Par  Srinivas Garimella , Georgia Institute of Technology et Matthew T. Hughes , Massachusetts Institute of Technology (MIT) Les humains ne sont pas les seuls à devoir rester au frais, en cette fin d’été marquée par les records de chaleur . De nombreuses machines, allant des téléphones portables aux voitures et avions, en passant par les serveurs et ordinateurs des data center , perdent ainsi en efficacité et se dégradent plus rapidement en cas de chaleur extrême . Les machines génèrent de plus leur propre chaleur, ce qui augmente encore la température ambiante autour d’elles. Nous sommes chercheurs en ingénierie et nous étudions comment les dispositifs mécaniques, électriques et électroniques sont affectés par la chaleur, et s’il est possible de r

De quoi l’inclusion numérique est-elle le nom ?

Les professionnels de l'inclusion numérique ont pour leitmotiv la transmission de savoirs, de savoir-faire et de compétences en lien avec la culture numérique. Pexels , CC BY-NC Par  Matthieu Demory , Aix-Marseille Université (AMU) Dans le cadre du Conseil National de la Refondation , le gouvernement français a proposé au printemps 2023 une feuille de route pour l’inclusion numérique intitulée « France Numérique Ensemble » . Ce programme, structuré autour de 15 engagements se veut opérationnel jusqu’en 2027. Il conduit les acteurs de terrain de l’inclusion numérique, notamment les Hubs territoriaux pour un numérique inclusif (les structures intermédiaires ayant pour objectif la mise en relation de l’État avec les structures locales), à se rapprocher des préfectures, des conseils départementaux et régionaux, afin de mettre en place des feuilles de route territoriales. Ces documents permettront d’organiser une gouvernance locale et dé

Midi-Pyrénées l’eldorado des start-up

Le mouvement était diffus, parfois désorganisé, en tout cas en ordre dispersé et avec une visibilité et une lisibilité insuffisantes. Nombreux sont ceux pourtant qui, depuis plusieurs années maintenant, ont pressenti le développement d’une économie numérique innovante et ambitieuse dans la région. Mais cette année 2014 pourrait bien être la bonne et consacrer Toulouse et sa région comme un eldorado pour les start-up. S’il fallait une preuve de ce décollage, deux actualités récentes viennent de l’apporter. La première est l’arrivée à la tête du conseil de surveillance de la start-up toulousaine Sigfox , spécialisée dans le secteur en plein boom de l’internet des objets, d’Anne Lauvergeon, l’ancien sherpa du Président Mitterrand. Que l’ex-patronne du géant Areva qui aurait pu prétendre à la direction de grandes entreprises bien installées, choisisse de soutenir l’entreprise prometteuse de Ludovic Le Moan , en dit long sur le changement d’état d’esprit des élites économiques du pay

La fin du VHS

La bonne vieille cassette VHS vient de fêter ses 30 ans le mois dernier. Certes, il y avait bien eu des enregistreurs audiovisuels avant septembre 1976, mais c’est en lançant le massif HR-3300 que JVC remporta la bataille des formats face au Betamax de Sony, pourtant de meilleure qualité. Ironie du sort, les deux géants de l’électronique se retrouvent encore aujourd’hui face à face pour déterminer le format qui doit succéder au DVD (lire encadré). Chassée par les DVD ou cantonnée au mieux à une petite étagère dans les vidéoclubs depuis déjà quatre ans, la cassette a vu sa mort programmée par les studios hollywoodiens qui ont décidé d’arrêter de commercialiser leurs films sur ce support fin 2006. Restait un atout à la cassette VHS: l’enregistrement des programmes télé chez soi. Las, l’apparition des lecteurs-enregistreurs de DVD et, surtout, ceux dotés d’un disque dur, ont sonné le glas de la cassette VHS, encombrante et offrant une piètre qualité à l’heure de la TNT et des écrans pl

Ce que les enfants comprennent du monde numérique

  Par  Cédric Fluckiger , Université de Lille et Isabelle Vandevelde , Université de Lille Depuis la rentrée 2016 , il est prévu que l’école primaire et le collège assurent un enseignement de l’informatique. Cela peut sembler paradoxal : tous les enfants ne sont-ils pas déjà confrontés à des outils numériques, dans leurs loisirs, des jeux vidéos aux tablettes, et, dans une moindre mesure, dans leur vie d’élève, depuis le développement des tableaux numériques interactifs et espaces numériques de travail ? Le paradoxe n’est en réalité qu’apparent. Si perdure l’image de « natifs numériques », nés dans un monde connecté et donc particulièrement à l’aise avec ces technologies, les chercheurs ont montré depuis longtemps que le simple usage d’outils informatisés n’entraîne pas nécessairement une compréhension de ce qui se passe derrière l’écran. Cela est d’autant plus vrai que l’évolution des outils numériques, rendant leur utilisation intuitive, a conduit à masquer les processus in