internet


Christophe Alcantara, spécialiste de l'e-réputation, enseignant chercheur en sciences de l'information et de la communication - IDETCOM Université Toulouse 1 Capitole.

Il y a cinquante ans naissait internet ; aujourd'hui dominé par les réseaux sociaux et les GAFA. Que reste-t-il des idéaux du début ?

Arpanet, l'ancêtre d'internet si on fait un peu d'archéologie d'internet et du web, était initialement créé pour permettre à des machines à calculer de pouvoir partager de la ressource de calcul, ni plus ni moins. Il y a alors eu un détournement d'usage, une hybridation d'usage, c'est-à-dire un usage réel qui n'était pas le même que l'usage prescrit. Cela a permis à Arpanet et plus largement à internet de devenir non pas un outil de partage de la ressource au sens mémoire vive, mais vraiment un outil à communiquer.

Tout cela part de Joseph Licklider, le père d'Arpanet qui a dessiné les utopies fondatrices d'internet. Arpanet n'a pas été créé par l'armée américaine pour l'armée, mais par des chercheurs pour des chercheurs sur des fonds de l'armée avec l'agence Darpa.

Les mythes fondateurs, ce sont le partage, la gratuité, l'échange. Ils ont été bouleversés et révolutionnés par la pratique mais aussi par le fait qu'internet tel qu'on l'utilise aujourd'hui est devenu une technologie de substitution au projet politique des autoroutes de l'information voulu par Bill Clinton et All Gore en 1996.

Facebook et Google, qui ont désormais la puissance d'Etats, deviennent-ils dangereux pour la démocratie ?

Plutôt que de poser la question du danger, interrogeons-nous plutôt pour savoir s'ils ne manipulent pas déjà l'information et la communication. Ils la manipulent d'une façon institutionnelle. Quand vous écoutez les promoteurs de Facebook, d'Instagram, de YouTube, etc. ils reposent toujours leurs discours de promotion sur les mythes fondateurs d'internet : la culture de la gratuité, le partage, l'échange. Mais en vérité, ces utopies fondatrices dont ils truffent leurs propos sont au fond un cheval de Troie pour produire une colonisation numérique. Leur modèle économique repose sur cette colonisation numérique.

Aux Etats-Unis, il y a actuellement un débat, notamment porté par la sénatrice démocrate Elizabeth Warren (candidate à la primaire pour la présidentielle de 2020) sur le démantèlement de Facebook. En Europe, on table sur une régulation ferme avec des amendes. Faut-il démanteler les GAFA, davantage les réguler ?

Si on appliquait strictement les lois antitrust qui existent aux Etats-Unis depuis plus d'un siècle, cela ferait déjà un moment que Google par exemple serait démantelé, c'est une évidence. Ce sont à la fois des acteurs de contenants et de contenus. Et dans le contenu, ils ont une maîtrise quasiment totale de par leur puissance et se retrouvent de fait dans une situation de monopole. Si aujourd'hui il fallait qu'on raisonne en économiste, Schumpeter nous disait que dans l'économie ce qui compte, c'est la destruction-créatrice : en gros plus on innove plus on crée de nouveaux emplois, des émergents deviennent des leaders. Mais dans les faits, sur le web, ça ne peut plus exister car même si vous avez une innovation particulièrement disruptive, elle va être captée par les grands acteurs qui vont l'acheter 3, 4, 5 milliards de dollars. Cela conforte encore plus leur position dominante. Ils passent leur temps à acheter des start-up. Ils sont donc dans une situation de monopole qu'ils contribuent à amplifier. S'ils n'ont pas été démantelés, c'est notamment à cause d'Obama qui était totalement une victime consentante du lobby des GAFA (il a été élu en 2008 grâce à la puissance des réseaux sociaux), avec lesquels il avait une proximité coupable. Donc démanteler, oui.

Aujourd'hui, y a-t-il quelque chose qu'on ne voit pas venir sur internet ?

Le fait de pouvoir coupler de l'intelligence artificielle (IA) sur les réseaux sociaux. Le problème c'est que c'est insidieux. Les gens ne vont pas le voir mais c'est totalement manipulatoire. Aujourd'hui, l'intelligence artificielle a deux natures. Vous avez des algorithmes prédictifs qui vont partir sur de grandes séries statistiques pour prévoir des comportements. Ce qui n'est pas sans interpeller les fonctionnements démocratiques : si je peux anticiper les réactions, voyez comme c'est manipulatoire. Et cela existe aujourd'hui.

Le 2e type d'algorithmes qui va arriver, c'est ce qu'on appelle les algorithmes créatifs. Je ne prends pas appui sur le passé pour me projeter dans le futur mais je suis capable d'apprendre en continu avec mon environnement. Vous imaginez les problèmes éthiques que ça pose. Le vrai enjeu est là.

La notion d'éthique dans les pratiques numériques doit être fondamentale, mais personne n'aborde ce sujet, notamment les politiques qui ne s'approprient pas ce sujet…
datacenter


Le 29 octobre 1969, aux Etats-Unis, le professeur Kleinrock faisait «parler» un ordinateur avec un autre. L'échange de ce message actait la naissance de ce qui allait devenir internet. Cinquante ans plus tard, que reste-t-il des idéaux de départ ?

Ce qu'il y a d'extraordinaire avec une technologie, ce sont les usages détournés qui, par choix ou accident, déclenchent une nouvelle révolution. Le 29 octobre 1969, c'est un ces moments historiques qui s'est produit dans un laboratoire de l'Université de Californie à Los Angeles (UCLA) lorsque le professeur Leonard Kleinrock et ses collègues utilisent leur ordinateur pour échanger un message avec ceux de l'Institut de recherche de Stanford.

Le «miracle» a lieu ce 29 octobre 1969 à 22 h 30. Et il se répétera entre l'UCLA et d'autres universités. Le réseau ainsi formé entre ces universités, Arpanet (Advanced Research Projects Agency Network), constitue bel et bien l'ancêtre d'internet.

Un changement profond de l'internet des débuts

internet

Cinquante ans plus tard, c'est peu dire qu'internet a profondément évolué. Une histoire marquée par toute une série d'innovations comme, le protocole TCP/IP inventé en 1973 par Vinton Cerf et Bob Kahn ; le world wide web (WWW) né le 13 mars 1989 à Genève, au CERN, sous la houlette de Tim Berners-Lee ; ou encore la création de Google le 4 septembre 1998 par Larry Page et Sergey Brin. Au fil de ces cinquante années, les idéaux du début se sont singulièrement émoussés. L'esprit libertaire, le partage, la gratuité a laissé place à un immense marché aujourd'hui dominé par les GAFAM (Google, Amazon Facebook, Apple, Microsft) ou des moins connus (BATX), c'est-à-dire les géants chinois Baidu, Alibaba, Tencent et Xiaomi.

Surtout, la nature même d'internet a changé sous la montée en puissance phénoménale des réseaux sociaux. Des réseaux sociaux que le professeur Kleinrock avoue aujourd'hui n'avoir pas vu venir (lire page suivante) ; des réseaux sociaux aux mains de sociétés qui ont la puissance des Etats et influent sur la marche de nos démocraties. À telle enseigne que se pose la question d'une régulation plus poussée voire d'un démantèlement pur et simple, de Facebook par exemple.

Et dans cinquante ans ?

60seconds_internet

Face à l'extraordinaire puissance informatique dont nous disposons aujourd'hui au creux de notre main avec nos smartphones, difficile de faire des pronostics sur ce qui nous attend dans les cinquante prochaines années, alors que l'intelligence artificielle n'en est qu'à ses débuts.

En revanche, on peut dégager des tendances au moins pour les mois à venir, comme le fait tous les ans Mary Meeker, célèbre investisseuse américaine en capital-risque. Nous passerons ainsi toujours plus de temps devant notre mobile que devant notre télévision, les jeux vidéo multijoueurs (comme Fortnite) vont ressembler de plus en plus à des réseaux sociaux, la communication par l'image va se développer de plus en plus, de nouvelles plateformes vont commencer à grignoter les parts de publicités de Google et Facebook, les solutions numériques dans la santé vont se multiplier, tout comme les enceintes et objets connectés. Mary Meeker prévoit aussi que les utilisateurs vont se soucier de plus en plus de la protection de leurs données personnelles.

À cet égard, le règlement européen sur la protection des données (RGPD) aujourd'hui plébiscité montre que l'Europe porte une certaine vision de ce que doit être internet.

Réunion de wikipédiens en Finlande pour mettre à jour des fiches. Teemu Perhiö/Flickr, CC BY-SA
Par Alexandre Hocquet, Université de Lorraine


Wikipédia est (ou devrait être) un objet extraordinaire à enseigner : tout le monde connaît Wikipédia, et presque tout le monde le connaît mal. Cela devrait être la situation idéale pour un enseignant : intéresser les étudiants avec quelque chose qu’ils connaissent, les surprendre en leur montrant qu’ils peuvent y découvrir beaucoup de choses.
Je propose un cours à toutes les formations et tous les niveaux : la découverte de Wikipédia touche à des compétences transversales et peut être fructueuse de la première année de licence jusqu'au doctorat. Malheureusement, mes propositions restent souvent lettre morte auprès des collègues qui font les maquettes pédagogiques.


Apprendre, analyser, tester… Sean MacEntee / Flickr, CC BY

Un des principaux malentendus est que « enseigner Wikipédia » est vu par les collègues comme une formation courte : au mieux « apprendre à l’utiliser », au pire « apprendre à s’en méfier ». Pourtant, il y a dans Wikipédia de quoi apprendre pendant tout un semestre.
Tout d’abord, plonger dans Wikipédia demande de s’y faire petit à petit. Surtout, Wikipédia est un objet d’étude pertinent pour de nombreux aspects, pour moi qui voudrait enseigner mon domaine de recherche : les STS, ou, dit autrement, les relations entre sciences et sociétés.

Laboratoire d'analyse critique

L’enseignement de l’analyse critique est à la mode en ce moment, particulièrement dans l’injonction ministérielle à se méfier « des théories du complot », à peine différente de l’injonction ministérielle à se méfier « d’Internet ». Pour l’école, pour l’université et pour la presse, ce qui vient d’Internet est suspect a priori et Wikipédia est le « usual suspect » dans les entreprises de décrédibilisation de la part de ces trois institutions. Pourtant Wikipédia est un laboratoire très intéressant pour tester une « analyse critique des médias ».
Plonger dans Wikipédia permet de se mettre à l’épreuve d’une communauté de pairs plutôt que d’une voix magistrale. Intervenir dans Wikipédia, c’est soumettre sa production (ou tout simplement son avis) aux mécanismes de recherche de consensus, de la vérifiabilité, de la neutralité de point de vue (des notions wikipédiennes qui elles-mêmes demandent à être déconstruites mais cela s'apprend en plongeant dedans).

Ces notions épistémologiques ne sont pas seulement celles d’un mode de production de connaissance bien particulier, elles sont aussi liées (et se façonnent mutuellement) avec l’infrastructure technique et logicielle de Wikipédia (qu’est ce que le wiki et d’où vient-il ? Que sont les bots et comment travaillent-ils ?), l’infrastructure juridique et politique (quel est le rôle de la Wikimedia Foundation, en quoi la production est elle liée aux licences ?).

Enseigner le bien commun

Les licences utilisées dans Wikipédia, et Wikipédia elle-même, sont aussi un projet politique lié au monde du libre, aux « creative commons », et plus généralement aux « biens communs ». Enseigner Wikipédia c’est aussi enseigner un projet politique particulier et nouveau : c’est le seul « bien commun » à avoir réussi à exister à grande échelle. Les politiques du libre ne sont pas seulement un projet, ce sont aussi une mise en oeuvre, dans lesquelles la notion de forking est primordiale (le forking, en tant qu’action politique, est l’équivalent d’un schisme en religion; à la fois une garantie de démocratie et une menace de division).


Wikipedia, un bien à partager. cea+ / Flickr, CC BY

De manière plus générale, Wikipédia est un des rares exemples à grande échelle d’un projet qui se veut « Open » et qui est obligé chaque jour par la pratique de définir ce qui est « Open » et ce qui ne l’est pas, parfois avec violence. L'Open est un concept flou. Au delà d’un washing politique ou d’une vision militante, définir ce qu'est l'Open en pratique est malaisé. Wikipédia est donc une étude de cas essentielle pour comprendre les « politiques de l’Open ».
Enfin, Wikipédia est aussi une communauté et ce projet politique est aussi un projet d’organisation communautaire par les principes, les règles, les protocoles et la technique. L’organisation des débats, les règles de recherche de consensus, les procédures de vote s’y inventent. Wikipédia est une excellente étude de cas pour enseigner la « culture numérique » par l’exemple.
Wikipédia permet de comprendre des projets techniques, des projets politiques, des projets épistémologiques liés au monde du libre, au monde du software, au monde des « algorithmes » et transpose ces notions dans un monde accessible au grand public. En ce sens, j’ai la conviction que, pour comprendre ce monde, pour acquérir une « littératie numérique », il est plus utile de plonger dans les entrailles de Wikipédia que « d’apprendre à coder ».

Politique, technique et sociologie

Mon but est de parvenir à faire partager ma vision distanciée mais pas complètement de Wikipédia, faire toucher du doigt comment Wikipédia est un monde avec des aspects techniques, des aspects politiques, des aspects sociologiques, démocratiques, juridiques, épistémologiques uniques et surtout complètement entremêlés les uns aux autres. Je le fais en racontant des anecdotes.


Wikipédia, tout un monde. Esther Vargas / Flickr, CC BY-SA

Ces anecdotes ont pour but de révéler ces enchevêtrements en racontant une histoire. Elles sont censées surprendre sur un sujet que tout le monde connaît mais que personne ne connaît ET révéler les tensions et interpénétrations de tous ces thèmes. Elles servent aussi à provoquer des questions-réponses, particulièrement si l’anecdote a, ou a eu, un succès médiatique ou si elle a été relatée dans la presse.

Par exemple, quand est abordée la question de l’ajout de photos, les principes de wikimedia commons, et/ou les règles du copyvio, l’anecdote du selfie du macaque met en lumière ces sujets, leur enchevêtrement, et leurs implications à la fois juridiques, techniques, procédurales, et de choix de licence, tout en traitant du militantisme du copyleft. L’anecdote est donc tout sauf futile : elle met en lumière cette complexité.
En dehors de la structure universitaire, une équipe de wikipédiens a créé un Massive Online Open Course qui a pour but de faire découvrir Wikipédia et d'apprendre à y contribuer. Il est pédagogiquement très réussi, beaucoup mieux que de nombreux MOOCs réalisés par des professionnels. Le but de ce MOOC, évidemment sous licence libre, est d'être réutilisable, modulable, modifiable pour pouvoir être enseigné dans différents cursus universitaires.
Il reste beaucoup de choses à faire pour rendre l’Université et l’enseignement de Wikipédia compatibles, mais de plus en plus de gens s’y mettent… et en débattent.The Conversation


Apprendre à contribuer sur Wikipédia.

Alexandre Hocquet, Professeur des Universités en Histoire des Sciences, Visiting fellow at the Science History Institute, Université de Lorraine
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.
AirbusCyberSecurity


La France continue de muscler la sécurité des opérateurs d'importance vitale (OIV), c'est-à-dire des organisations identifiées par l'État comme ayant des activités indispensables ou dangereuses pour la population. On en compte actuellement 250 dans 12 secteurs d'activité (activités civiles, militaires, santé, énergie, transports, télécommunications, etc.). Pour faire face aux nouvelles cybermenaces, l'article 22 de la loi de programmation militaire, qui fait suite aux préconisations du Livre blanc sur la défense et la sécurité nationale de 2013, a imposé aux OIV le renforcement de la sécurité des systèmes d'information critiques qu'ils exploitent.

La France est ainsi le premier pays à être passé par la réglementation pour mettre en place un dispositif efficace et obligatoire de cybersécurité de ces infrastructures critiques.

C'est dans ce contexte que Thales et Airbus CyberSecurity, leaders européens des systèmes d'information critiques et de la cybersécurité, viennent de s'associer pour accompagner les OIV dans la lutte contre les cyberattaques.

Une solution unique pour détecter les virus

Les deux sociétés vont proposer une solution unique associant le système d'analyse de fichiers Orion Malware d'Airbus CyberSecurity et la sonde de détection d'intrusions Cybels Sensor de Thales. Cette dernière a reçu en avril 2019 le visa de sécurité de l'Agence nationale de la sécurité des systèmes d'information (ANSSI) pour sa qualification élémentaire.

La sonde de Thales, déjà active chez de nombreux clients (la Poste, Galileo) est capable d'analyser de grands volumes de données. Les fichiers suspects capturés sur un réseau par la sonde sont ensuite analysés de façon approfondie en moins d'une minute par Orion Malware, qui fait appel à de l'intelligence artificielle pour améliorer la classification des virus détectés. Le rapport clair qui en découle, accessible aux non-experts, permet ensuite d'apporter les bonnes réponses aux cyberattaques.
vtc


Par Théodore Monzies, co-fondateur de Eurecab, plateforme de réservations de VTC

Unanimement reconnues par les clients pour leur efficacité, souvent décriées par les livreurs ou les chauffeurs pour leur manque d’humanité, les plateformes numériques de services ne laissent pas indifférentes. Qu’il s’agisse des livreurs Déliveroo ou des chauffeurs Uber, des dizaines de milliers de personnes travaillent désormais pour ces entités en France. Dans le monde, ils sont des millions.

Il y a quelques jours, un séisme a ébranlé ce petit monde. L’Etat de Californie a adopté une loi obligeant les entreprises Uber et Lyft à traiter leurs chauffeurs non plus comme des indépendants, mais comme des employés . Il y a quelque chose de troublant dans cette décision. Non pas que l’on se soucie de la condition des chauffeurs, mais plutôt que l’on puisse se contenter de penser qu’il y aurait seulement deux voies possibles : d’un côté le salariat et la protection des chauffeurs, de l’autre le statu quo et leur exploitation à outrance. Car aucune de ces deux voies n’offre un futur satisfaisant.

La première – le salariat- n’est tout simplement pas adaptée à l’économie des services à la demande. Dans le transport de personnes par exemple, les variations de demande, de temps de trajet, sont tellement fortes et imprévisibles qu’organiser un planning de chauffeurs relève du cauchemar. Deux sociétés ont essayé ce modèle : Navendis et Voitures Jaunes. Aucune d’entre elles n’est encore en vie aujourd’hui.

La seconde option -le statu quo- n’est pas non plus envisageable. La décision de l’Etat de Californie est révélatrice d’un malaise plus profond qui touche les travailleurs œuvrant sur ces plateformes. Ce malaise tient au décalage entre le discours commercial vantant l’indépendance et la réalité. Comment en effet affirmer que les travailleurs des plateformes sont indépendants alors que par exemple ils subissent des baisses de rémunération décidées unilatéralement ? Tant que ce décalage ne sera pas réduit, le modèle actuel des plateformes sera attaqué et alimentera le fantasme d’une humanité gouvernée par les algorithmes.

Il est donc nécessaire qu’il y ait un rééquilibrage du rapport de forces entre les plateformes et leurs travailleurs. Ce rééquilibrage doit provenir des plateformes elles même et non du régulateur. En effet, ce serait courir le risque d’une réglementation soit constamment en retard d’un temps par rapport à des évolutions techniques beaucoup trop rapides, soit trop contraignante -par exemple salarier tous les chauffeurs.

Aux plateformes donc de se réinventer pour être à la hauteur des attentes de la société. La tâche est difficile mais pas impossible : il faut rendre aux travailleurs des plateformes leur indépendance, leur permettre d’opérer comme de vrais entrepreneurs mais sans pour autant dégrader la qualité et la compétitivité du service offert aux client. Pour cela, une seule solution : la plateforme doit se positionner non plus comme un intermédiaire opaque qui décide de tout, mais comme un facilitateur qui crée les conditions afin qu’offre et demande puissent se rencontrer.


hacker


A l’occasion du du mois européen de la cybersécurité et alors que se déroulent les Assises de la Sécurité (du 9 au 12 octobre 2019), le cabinet Wavestone dévoile le panorama de son benchmark dédié aux incidents en matière de cybersécurité.

Pour cela, le cabinet a passé en revue les interventions de son équipe de gestion de crise cybersécurité, le CERT-W, entre septembre 2018 et août 2019. "Cela constitue une quarantaine d’incidents de sécurité majeurs ayant mené à l’interruption d’activités métiers ou une compromission avancée de systèmes d’intervention et ce, dans des secteurs diversifiés : industrie, secteur public, agroalimentaire, technologies de l’information, finance, etc. L’enjeu de ce benchmark est d’éclairer les organisations et plus globalement la société sur l’état de la menace cyber en France et de partager les clés pour une meilleure anticipation et gestion des risques, au travers de retours d’expérience concrets", explique le cabinet.

Motivation première : l'appât du gain

Pour 43% des attaquants, la motivation première reste les gains financiers. Ces attaques sont issues de ransomwares (virus bloquant les ordinateurs et demandant une rançon) pour la majorité des réponses des incidents analysés (36%), suivies des actions frauduleuses (7%).

Le vol de données

La deuxième motivation des attaquants est le vol de données, tant métiers que techniques. Cela représente 34% des attaques analysées. 4% des attaques visent à nuire à l’image de l’entreprise via de la défiguration de sites web, le vol de comptes sur les réseaux, etc. et 4% des compromissions visent à gagner en nouvelles capacité d’attaque : contournement des mécanismes de sécurité, attaques sur des partenaires de confiance, écoute illicite du réseau, etc.

167 jours entre une intrusion et sa détection 

La moitié des organisations figurant dans ce benchmark sont parvenues à détecter l’intrusion dans les deux jours après le commencement de l’attaque. Cela démontre une forte capacité en détection, qui leur a permis de réagir rapidement et d’optimiser leur chance de stopper un effet domino qui aurait amené à la compromission de l’Active Directory, le cœur du Système d’Information. 35% des entreprises n’ont pas réussi à le détecter dans les 6 à 9 mois.

En croisant ce constat avec les méthodes de détection, le constat est plus inquiétant encore : seulement 26% des incidents de sécurité sont identifiés par le service de détection cybersécurité de l’entreprise. Dans 44% des cas, ce sont les collaborateurs qui ont alertés directement.

Plus de 50% des attaquants ne présentent pas de compétences techniques avancées

La majorité des cyber-attaquants sont opportunistes (65%), ils ne relèvent pas d’un haut niveau de technicité ou ne visent pas une organisation en particulier. Ils cherchent et abusent des systèmes peu protégés et facilement attaquables. Ces attaques pourraient être évitées si les mesures de sécurité étaient situées au-dessus de la moyenne.

30% des attaques gérées ciblent spécifiquement une organisation. Elles visent des informations sensibles et précises au sein de l’organisation. Les attaquants sont mandatés avec un objectif clair et mettent ainsi tous les moyens à disposition pour arriver à leurs fins.

Enfin, 5% des attaques sont considérées comme « diffuses » : celles-ci correspondent aux habituelles infections virales ou encore au spam. Elles ne visent pas une organisation particulière et ont un effet limité sur le SI (de type déni de service, perte de données utilisateurs, etc.). Cela permet d’estimer au mieux le niveau de compétences techniques des attaquants.

Toujours les mêmes portes d’entrée...


  • Dans la majorité des cas (1 cas sur 3), l’attaquant a exploité une application web vulnérable, ce qui met en relief un chiffre alarmant issu d’une précédente étude de Wavestone : 100% des applications web sont vulnérables… ce sont autant de portes d’entrées facilement accessibles.
  • Pour 1 cas sur 10, l’attaquant s’est infiltré dans le système d’information en exploitant un service RDP exposé sur Internet (mécanisme standard permettant l’accès à distance à des systèmes informatiques).
  • Enfin, pour 1 cas sur 10, l’attaquant s’est infiltré dans le système d’information par un spear-phishing (phishing ciblé visant une entreprise spécifique ou un groupe d’utilisateurs particuliers).

Pour 20% des cas, l’identification du vecteur d’intrusion a été vaine : manque de traces techniques, destruction ou le décommissionnement des systèmes, manque de ressources locales pour mener à bien les actions d’investigation, …

Au moins 6 semaines sont nécessaires pour une reconstruction saine

Le temps nécessaire pour revenir à une situation technique normale dépend de la taille de l’entreprise, de son niveau de maturité en matière de cyber-résilience mais également et fortement du type d’attaque auquel elle est confrontée :

A 1 semaine la durée de retour à la normale pour un ransomware dit « simple » ;
A 3,5 semaines la durée de retour à une situation correcte pour une attaque ou un ransomworm ayant détruit une partie importante du système d’information;
A minima 6 semaines pour une reconstruction saine du SI. Cela induit la reconstruction du cœur de confiance du système d’information pour bascule vers un nouvel environnement sain mais également le nettoyage et la réimportation des données métiers créés pendant la crise.
Ces semaines de reconstruction ont, pour la plupart des cas, un impact fort sur l’activité de l’entreprise et ainsi sur son chiffre d’affaire.
code


David Bégasse, Animateur de l’équipe d’architecture et d’expertise en Web Technologies chez SII

Apprentissage du code sur les bancs de l’école, formations pour adulte à marche forcée, essor de plateformes « no code » ou encore intelligence artificielle : jamais le monde du développement en 2019 n’avait semblé autant à portée de clic des entreprises. La quatrième révolution industrielle semble avoir fait davantage que descendre le code de son piédestal : elle permet à tout un chacun de créer plus rapidement des applications métiers basiques. Alors forcément, face à une pénurie de développeurs sur le marché du travail, on est en droit de se demander : demain tout le monde sera t-il développeur ? Le métier du développement est-il progressivement en train de disparaître … ou bien seulement en train de muter ?

Le code à portée de clic


En une dizaine d’années, l’informatique a connu des mutations très profondes. En pleine transition digitale, les grandes entreprises ont dû coller aux besoins de leur clientèle, parfois plus vite que ce que l’informatique était capable de produire : pénurie de développeurs, manque de compétences sur des technologies fraichement débarquées, etc. Pour gagner en productivité et rester dans le wagon de tête, l’idée de limiter les coûts de production pour intégrer des solutions clés en main, sans beaucoup de technicité et donc de code, fit rapidement son chemin.
Sur ce point précis, l’arrivée de l’intelligence artificielle a justement été un raz-de-marée technologique. En 10 ans, elle a pu faire émerger tout un lot de plateformes : « no code » (sans code), « low code » (avec peu de code) ou encore « sketch to code » (dessiner pour coder). Celles-ci ont permis à des salariés qui n’étaient pas des experts techniques de mettre rapidement en place dans une entreprise des applications simples sans l’aide de développeurs. Ces outils peuvent déployer des applications quatre fois plus rapidement qu’un développeur traditionnel. Ils ont démocratisé l’accès au code dans le monde du travail et ont fait muter les métiers du développement.

Les développeurs en mutation


Si la démocratisation du code est certaine, le métier de développeur n’est pas pour autant menacé d’extinction. En revanche, il ne se limitera plus à une simple activité de codeur. L’IA le génère mieux que lui. Somme toute, le débat est le même qu’on trouve dans la sphère publique sur l’évolution des métiers du digital. Les tâches exécutives seront délaissées au profit de missions à plus haute valeur ajoutée. Si l’IA assure les tâches basiques de développement, place au développeur de devenir son superviseur, son orchestrateur. En bref, un chef de projet du code qui puisse gérer les algorithmes… qui génèrent du code.
Par ailleurs, on observe que le marché est surtout en voie de segmentation. Le mythe du développeur « full stack » ne trompe plus personne. Avec de nouveaux langages de programmation qui tombent tous les 6 mois, il est illusoire de croire qu’un développeur puisse tous les maîtriser. Le temps de l’informaticien des années 70 qui maîtrisait la chaîne de A à Z est aujourd’hui révolu. En 2019 un développeur se spécialise sur certains segments informatiques. En ce moment même, certains s’orientent justement vers les plateformes low code en faisant un pari sur l’avenir pour venir former une toute nouvelle génération de développeurs.
Sur des besoins spécialisés, il faudra faire appel à un développeur. En effet, ces plateformes ne peuvent couvrir tous les besoins informatiques.  Elles brident la liberté et la créativité des projets alors que les entreprises souhaitent en garder la maîtrise de A à Z.
L’intelligence artificielle a favorisé l’émergence de plateformes « no code »  qui ont démocratisé les métiers du développement. A l’avenir, nous ne serons pas pas tous développeurs. Mais nous serons tous des artisans du code capables de concevoir nos propres applications avec le support de machines… qu’il faudra bien pouvoir coder… grâce aux développeurs.


Après Free et SFR, il était temps pour Orange de mettre à jour sa Livebox. C'est désormais chose faite avec la présentation, ce mercredi de la Livebox 5 conçue avec une empreinte carbone réduite et des débits doublés.

Davantage de débit

La Livebox 5 est désormais plus simple à installer car elle nécessite moins de câbles, n’ayant plus besoin du boîtier fibre (ONT) qui s'intercalait entre la prise et la box. La nouvelle Livebox 5 apporte un débit jusqu’à 2Gbit/s partagés en sens descendant et jusqu’à 600Mbit/s en sens montant. Le débit descendant a de son côté été doublé et permet des usages simultanés pour tous les équipements du foyer en offrant jusqu’à 1Gbit/s par équipement. Ces débits augmentés permettent de profiter des nouveaux usages comme regarder des vidéos en streaming en haute qualité.

Un nouveau Wifi

Autre point d'amélioration, la couverture du Wifi. La nouvelle Livebox est équipée d'un "Wifi intelligent" mais qui reste un Wifi 5 alors que la nouvelle norme Wifi 6 vient de sortir... Ce wifi selon Orange, "réduit les perturbations générées par le Wifi des voisins en sélectionnant automatiquement la meilleure fréquence et le meilleur canal de la box. Les tests ont permis de montrer une amélioration de 40% des débits descendants (en comparaison avec le Wifi des Livebox non équipées)", explique Orange. 
Par ailleurs, pour une meilleure couverture de grands appartements ou des maisons, un répéteur Wifi est mis à disposition gratuitement sur demande avec les offres Livebox Up et Packs Open Up.


Une Livebox plus verte

La nouvelle box est également plus verte. "À chaque génération de Livebox, Orange cherche à progresser dans la réduction de l’impact carbone de ses équipements. Chaque année, ce sont 2,7 millions de Livebox qui sont réemployées, et 100% des box restituées qui sont recyclées", explique l'opérateur en préambule. 
"Dans la continuité des démarches entreprises avec la Livebox 4 et le décodeur TV UHD, Orange a travaillé avec son écosystème de partenaires pour améliorer la production et diminuer de 29% l’empreinte carbone de la nouvelle Livebox 5", assure Orange.
La nouvelle box dispose ainsi d'une coque 100% en plastique recyclé, d'une fabrication plus légère et plus compacte, de moins de composants électroniques et d'un nouveau design permettant une ventilation passive, sans ventilateur.
« De ses fonctionnalités aux composants et matériaux utilisés, notre nouvelle Livebox a été conçue pour offrir le meilleur du réseau tout en réduisant son impact environnemental. Orange est particulièrement fier de lancer aujourd’hui un produit qui répond à la fois à notre exigence de qualité des services proposés à nos clients et à notre exigence de responsabilité environnementale » précise Fabienne Dulac, Directrice Exécutive d’Orange France. 
La nouvelle Livebox est disponible dans l’offre Livebox Up Fibre (à partir de 30,99€/mois pendant 12 mois puis 49,99€/mois) et l'offre Packs Open Up Fibre (à partir de 28,99€/mois pendant 12 mois puis 52,99€/mois).

computer


Par Christian Dhinaut, Directeur Stratégie Produits CRM Divalto

Boosté par la demande des entreprises et les évolutions technologiques, le marché du CRM (Customer Relationship Management ou la gestion de la relation client) est en pleine croissance et évolue à toute vitesse. En 2018 par exemple, il représentait 48,2 milliards de dollars de chiffre d'affaires selon Gartner* et devrait atteindre 1 065 millions d'euros en 2021, devenant ainsi le principal poste de dépense des entreprises en matière de logiciels. Pourquoi ? Grâce à de nouvelles tendances dont la percée est inévitable et l'intégration indispensable : l'intelligence artificielle, les objets connectés, le CRM mobile ainsi que l'hyperpersonnalisation.

Ainsi, par bien des aspects, le digital a révolutionné les processus d'entreprise, y compris au sein de la Gestion de la Relation Clients. Aujourd'hui, pour mener à bien la transition des entreprises dans le domaine du CRM, il est nécessaire de bien comprendre les enjeux de l'adoption de ce type de solutions et de la mettre en place intelligemment. Objectif : faciliter par la suite l'intégration des nouvelles innovations technologiques avec lesquelles il faudra compter.

Réussir son projet CRM en 4 points clés !

Point 1 - Adopter une démarche globale centrée sur le « parcours client »


Un outil non exclusif aux commerciaux & des bénéfices pour tous les services
Une des idées reçues sur les CRM est que seuls les employés travaillant au service vente d'une entreprise sont concernés par les logiciels de Customer Relationship Management. Or, il est important pour tous les collaborateurs d'une entreprise de penser au développement de la relation clients. Bien évidemment, les services marketing seraient les premiers de la chaîne de développement à devoir s'équiper de ces applications logicielles mais les acteurs de la logistique et de l'ingénierie devraient également être sensibilisés. Impliquer les collaborateurs de tous les services dans le processus de mise en place d'une solution CRM permet d'optimiser son utilisation et son efficacité dans les stratégies à long terme.
Un outil pluridisciplinaire pour une meilleure compréhension du client
Attention également à ne pas négliger l'aspect « parcours client » dans le développement d'une entreprise du XXIème siècle. Les entreprises qui ont fait succès ces dernières années sont celles qui ont misé sur une stratégie cross-canal ou omnicanal : soit répondre de façon personnalisée aux questions des acheteurs potentiels ou fidèles via tous les canaux numériques et traditionnels. Il s'agit ici de se démarquer auprès d'acheteurs constamment sollicités par la concurrence. Et si l'omniprésence des logiciels CRM est bien établie dans le BtoC, comme peuvent en témoigner le succès des TUNA (Tesla, Uber, Netflix et Airbnb), le secteur du BtoB est loin derrière. L'intérêt pour les entreprises BtoB est donc de se positionner au plus vite afin de bénéficier du statut de précurseur dans le domaine tout en optimisant leurs relations clients.
Les avantages d'établir une démarche « parcours clients »
Le processus d'implémentation d'un logiciel CRM dans une entreprise sera d'autant plus réussi s'il s'appuie sur cette démarche globale du développement de « parcours clients ». Cette dernière a d'ailleurs de multiples avantages dans la compréhension globale des comportements des acheteurs. Notamment, une meilleure compréhension du parcours achat, surtout à cette époque de l'ère digitale où les acheteurs potentiels ont accès à tous types de renseignement grâce à Internet. Ces processus peuvent également permettre d'appréhender et de réduire les obstacles entre la première prise de contact et l'acte d'achat, d'améliorer l'expérience client et de le fidéliser. Enfin, une entreprise qui a réussi dans sa démarche centrée sur le « parcours clients » pourra faire de ses acheteurs fidèles de véritables ambassadeurs de la marque.

Point 2 - Sensibiliser l'organisation à la pratique du CRM


D'après une enquête du cabinet ACEMIS parue en 2016 sur les causes d'échecs de mise en place de CRM en entreprise, il ressort que le premier frein majeur à l'usage des CRM est la difficulté pour les utilisateurs à l'adopter. Face à un logiciel impliquant nécessairement de grands changements dans leurs habitudes de travail, l'entreprise se doit alors de mettre en place une véritable communication autour du projet pour affirmer sa nécessité et son intérêt dans sa transformation digitale.
Un processus d'implication des collaborateurs nécessaire
Impliquer les collaborateurs dans le processus de développement de la solution est un bon moyen de leur faire accepter ces changements majeurs, en leur demandant par exemple de valider le paramétrage des données, de l'interface et des règles d'utilisation. Il est également vital à la pérennité du projet de consacrer une partie du budget à la formation des équipes ; une adoption rapide du logiciel rentabilisera bien plus vite l'investissement.
En dernier lieu, après implémentation de la solution CRM, il convient de vérifier qu'elle est correctement et intégralement utilisée par les différents services de Gestion de la Relation Clients en effectuant un suivi régulier.

Point 3 - Structurer les données clients et valider l'intégration du SI


Assurer la qualité et la fiabilité des données
Si la difficile adoption des logiciels de CRM est le premier frein pour établir une solution CRM pérenne, assurer la qualité des données enregistrées est le second. L'un des points clés de l'intégration d'une solution CRM réussie est de récupérer les données précédemment traitées sous d'autres formes et de les intégrer au nouveau système CRM. Un nettoyage des bases de données récupérées est fortement préconisé à ce stade, ainsi qu'un enrichissement à partir de sources externes. Une donnée saisie (entreprise, activité, intérêts, contact, ...) étant rapidement obsolète, il faut s'assurer de sa mise à jour régulière.
Un découpage des tâches et une attribution des rôles au sein de l'entreprise peut également aider à un meilleur développement de la solution. Par exemple, définir clairement qui sera concerné par tel type de données permet une organisation plus fluide et surtout d'assurer que les données seront attribuées aux spécialistes en la matière. Il convient de mettre en place des KPI concernant la qualité et la complétude de la base de données : savoir si tous les champs utiles sont bien remplis et s'ils sont à jour. A titre d'exemple, si le décideur ciblé chez le prospect est le directeur financier il faut que les champs relatifs à ce profil soient complétés. Cela permet d'enrichir sa connaissance client et ses capacités de ciblage et segmentation.
Intégrer le logiciel CRM au système d'informations existant
Il s'agit également d'implémenter le CRM dans le S.I, notamment de le connecter au logiciel ERP et au formulaire de prise de contacts sur le site web de l'entreprise. L'un des enjeux de la mise en place d'une telle solution de Gestion de la Relation Clients est donc de veiller à ce qu'elle puisse s'intégrer aux logiciels déjà utilisés dans l'entreprise (agenda, messagerie, etc.). Au lieu de créer un tout nouveau logiciel qui viendrait s'ajouter aux autres, il s'agit de développer une solution qui se connecte à l'ensemble des outils déjà en place. Avant tout choix de CRM, il sera ainsi nécessaire de faire valider par des équipes techniques les possibilités d'interfaçage de la solution (API, webservices, webhook, etc.)

Point 4 - Choisir un CRM adapté aux besoins de l'entreprise

Un logiciel adapté aux principaux utilisateurs
La réussite d'un projet CRM repose évidemment sur le choix d'un logiciel adapté aux besoins de l'entreprise. Il s'agit d'identifier les besoins de l'entreprise en établissant un cahier des charges qui répondra à des questions du type :  Qui utilisera la solution ? Ce CRM convient-il au business model de l'entreprise (actuel et futur) ? Après avoir répondu à ces quelques questions, l'entreprise concernée peut effectuer un premier tour de marché et sélectionner les outils susceptibles de répondre à ses besoins. A ce stade, il ne faut pas hésiter à mettre en place un environnement de test ou POC (Proof Of Concept) pour valider la réponse aux besoins avec les utilisateurs cibles.
La solution se doit d'être personnalisable au type d'activité de l'entreprise. L'outil idéal doit être suffisamment souple pour s'adapter aux besoins spécifiques des équipes opérationnelles (force de vente, marketing, service clients, finances, ...)
Une solution pour chaque business model
Il convient de se doter d'un outil qui pilote le business model de l'entreprise à la fois par le traitement de tous les canaux de vente, et la mise en place d'outils reporting et analytiques.
computer


Par Chris Huff, Directeur de la stratégie chez Kofax

Une image contenant homme, personne, complet, murDescription générée avec un niveau de confiance très élevéL'automatisation robotisée des processus (RPA) est un sujet d'actualité de nos jours et, à juste titre, un point d'intérêt dans de nombreuses initiatives de transformation numérique. En fait, la quête pour trouver le fournisseur de l'outil RPA qui possède le plus de gadgets et de widgets est devenue une sorte de « combat de rue ». Mais ceux qui se focalisent sur ce niveau tactique peuvent perdre la vue d'ensemble. Pour vraiment aller de l'avant avec les initiatives de transformation numérique et résoudre un plus large éventail de problèmes de gestion avec l'automatisation, les entreprises recherchent de plus en plus les capacités d'une plate-forme d'automatisation qui leur permet d'optimiser leurs opérations de bout en bout.

Bien qu'il puisse sembler au départ décourageant de déployer une plate-forme pour des opérations de bout en bout, les professionnels IT peuvent suivre un processus en trois étapes pour structurer leurs initiatives en vue de la transformation numérique de leur entreprise.

Étape 1 : Comprendre où on en est aujourd'hui

La transformation numérique commence par l'évaluation de l'état de préparation opérationnelle du point de vue de la technologie et des processus. L'informatique joue un rôle indispensable pour faire en sorte que les technologies de transformation, telles que l'automatisation, s'intègrent dans le cadre informatique plus large. Le groupe IT établira également des lignes directrices pour la gestion et la sécurité de l'environnement technologique.

Parallèlement à la participation des services informatiques, il est important d'impliquer des parties prenantes plus fonctionnelles dans l'ensemble de l'entreprise pour évaluer dans quelle mesure leurs processus sont bien documentés. L'automatisation est plus puissante lorsqu'elle est déployée sur des processus bien définis et qui fonctionnent déjà correctement ; son ROI peut être plus complexe lorsqu'elle est déployée sur des processus fragmentés ou sans documentation. En d'autres termes, il faut d'abord optimiser et ensuite automatiser pour obtenir les meilleurs résultats.

Étape 2 : Établir une analyse de rentabilisation pour l'automatisation et adopter une « approche plate-forme » dès le premier jour


Après avoir effectué les évaluations de « l'état de préparation opérationnelle » ci-dessus, il est important d'établir une analyse de rentabilisation qui établit clairement les liens entre l'automatisation et les objectifs de l'entreprise en termes stratégiques, de gestion d'effectifs, de gains opérationnels et financiers. Avec une telle analyse de retour sur investissement, tous les cas d'utilisation possibles devraient être classés en fonction de leur potentiel pour l'entreprise. Une organisation qui effectue ce travail dès le départ est plus en mesure de déterminer quelles technologies d'automatisation sont nécessaires pour résoudre les problèmes opérationnels qui leurs sont propres. Plus précisément, ces problèmes peuvent aller de l'amélioration de la façon dont l'information est saisie et extraite jusqu'à des actions précises dans les systèmes et applications en aval.

Après avoir pris des mesures pour harmoniser les cas d'utilisation qui génèrent un retour sur investissement, ainsi que les technologies requises pour les automatiser, une organisation peut passer à la conception de solutions d'automatisation au sein de la plate-forme. Un tel groupe de technologies qui automatise les processus d'affaires de bout en bout crée une valeur significative pour une organisation lorsqu'elles sont regroupées et intégrées dans une plate-forme. Ces technologies comprennent :


  • Capture cognitive : Intégrer depuis n'importe quel canal et comprendre n'importe quel document pour en extraire l'information pertinente.
  • Orchestration des processus : Intégrer les personnes, les technologies d'automatisation, les systèmes, les applications, etc. le long d'un flux de travail plus large d'une manière intuitive pour l'utilisateur métier.
  • Mobilité et engagement : Engager les clients de manière efficiente par le biais d'Internet ou d'appareils mobiles.
  • Analyses avancées : Fournir un aperçu axé sur les données en fonction des résultats obtenus grâce à l'automatisation.
  • Intelligence Artificielle : Automatiser la prise de décision complexe et personnaliser le service aux utilisateurs finaux.


Une approche de plate-forme intégrée évite aux employés d'avoir à apprendre des solutions multiples et à l'équipe d'approvisionnement d'avoir à gérer une panoplie de solutions des fournisseurs. Ainsi, en adoptant une plate-forme intégrée, les professionnels de l'informatique augmentent la capacité de leur organisation à réduire les coûts, le time-to-value et la complexité, tout en maximisant la satisfaction des clients et des employés.

Selon le cabinet d'analyse HFS, la RPA est un très bon remède pour des problèmes ponctuels, mais ne fournit pas de réponse à long terme. « C'est l'automatisation intégrée qui permet de transformer l'entreprise et d'obtenir une expérience digitale de bout en bout. »

Étape 3 : Créer un centre d'excellence


Il est important pour les entreprises de créer un modèle d'exploitation autour de l'automatisation qui s'adapte à leurs activités, également connu sous le nom de Centre d'excellence pour l'automatisation intelligente. Une équipe du Centre d'excellence guide tout ce qui a trait à l'automatisation, y compris le maintien et la supervision des normes à l'échelle de l'entreprise, la formation, la gestion des fournisseurs, l'établissement de la meilleure pratique et bien d'autres aspects. Les organisations disposent également d'une certaine souplesse dans la façon dont elles structurent leur programme. Il existe trois modèles principaux :

Centralisé : Une seule équipe est responsable de la gestion et du contrôle de tous les aspects du programme.
Décentralisé : Les responsabilités relatives à l'exécution du programme d'automatisation sont réparties entre les différentes unités opérationnelles de l'entreprise.
Hybride : Certains aspects du programme d'automatisation sont gérés par une seule équipe centralisée, tandis que d'autres sont reproduits d'une unité opérationnelle à l'autre.
Il n'y a pas de « bonne » ou de « mauvaise » réponse ; le plus important est de commencer par le modèle qui a le plus de sens compte tenu de la situation actuelle d'une organisation, puis de l'adapter au besoin.

Grâce à une approche de plate-forme intégrée, les entreprises peuvent accélérer leurs initiatives de transformation numérique et commencer à travailler comme les entreprises de demain qui sont dotées d'une plate-forme numérique. Travailler comme demain apporte plusieurs avantages : une meilleure productivité, une prise de décision plus rapide, un service personnalisé aux clients et une main-d'œuvre plus autonome.
mastercard


L'institut Ifop vient de réaliser pour le compte de Mastercard et Oxygen une cartographie régionale des usages et nouvelles tendances liés au paiement. Parmi les enseignements de cette enquête :

Les habitudes pour le sans contact

Le recours au sans contact est ancré dans les habitudes de paiement d’une grande partie des habitants de la région.
73% l’utilisent au moins une fois par mois, dont 14% tous les jours ou presque, 42% une à trois fois par semaine et 17% une à trois fois par mois. A l’opposé, 26% indiquent utiliser ce mode de paiement moins d’une fois par mois ou jamais (1% ne le connaissant pas).
Dans le cadre de leurs achats au quotidien, les habitants de la région Occitanie, recherchent avant tout la sécurité (72%). Viennent ensuite le critère de facilité (15%) et de rapidité (10%).

Critique sur la fiabilité

La principale critique adressée au paiement en « sans contact » par les habitants de la région d’Occitanie est son manque de fiabilité.
Le premier obstacle perçu du « sans contact » est « le manque de confiance » qu’il suscite (27%). Des freins plus exogènes sont cités dans un second temps : « peu de commerçants le proposent » (11%), « la carte de paiement ne le permet pas » (10%), « une mauvaise connaissance du fonctionnement » (3%) ou encore le fait de ne disposer « d’aucune carte de paiement » (3%). Par ailleurs, 36% des habitants d’Occitanie estiment qu’ils ne perçoivent aucuns obstacles à l’utilisation du paiement « sans contact ».

L'émergence du paiement par smartphone

A l’exception du paiement par smartphone, les moyens de paiements connectés sont relativement peu connus et peu utilisés.
Le paiement via smartphone est connu de 9 habitants sur 10 et 28% y ont déjà eu recours. 51% connaissent l’existence du paiement connecté grâce à une montre, 32% par un bracelet ou une bague, 20% via le réfrigérateur et 21% via une voiture. A l’exception du Smartphone, l’utilisation de ces supports en tant que moyen de paiement est marginale (entre 1% et 3% selon les objets). 

smartphone


Par Marlène Joseph, Product & Marketing Manager EMEA chez PNY Technologies

Aujourd’hui, 94% des français sont équipés de téléphones portables. Parmi eux, ils sont 74% à posséder un smartphone[1]. 12 ans après la « révolution iPhone », l’usage des appareils numériques s’est totalement démocratisé. Parmi toutes les fonctionnalités possibles en un seul appareil, il y en a une qui a totalement chamboulé les habitudes des utilisateurs : la prise de photo et de vidéo avec son téléphone. Bien que le marché du reflex reste un marché de niche pour les appareils des gammes professionnelles, l’utilisation du portable pour la photographie a vite pris le dessus sur tous les autres appareils. La tendance est à la décroissance pour les appareils photo numériques avec une chute de l’ordre de 25% sur les livraisons de ces produits entre 2018 et 2019[2].

En 1991, Michael Jackson créait l’événement en utilisant la technique du morphing pour la première fois en dehors du circuit cinématographique, pour le clip de Black or White. Aujourd’hui, ce procédé peut être réalisé par n’importe qui grâce à bon nombre d’applications. Le XXIème siècle voit son lot de révolutions technologiques pénétrer le grand public. En quelques années, les réseaux sociaux sont devenus des repères et ont encore plus démocratisé l’image comme vecteur d’informations. Instagram, le réseau social de l’image par excellence, compte depuis juin 2018 plus d’1 milliard d’utilisateurs actifs dans le monde[3]. Et si le succès de cette application a été si fulgurant c’est bel et bien grâce aux possibilités de photos réalisées avec les smartphones. Ce nouveau moyen de capter l’image chamboule bien plus qu’on ne le croit.

La révolution de la phonéographie

Mais qu’est-ce que la phonéographie ? Elle résulte de l’intégration de la prise d’image par les téléphones mobiles. Mais sa fulgurante ascension est belle et bien due aux évolutions des réseaux sociaux et des applications. Pour satisfaire cette tendance, les fabricants de téléphones ont poussé la technique vers toujours plus de performance et de professionnalisme accessible par tous. Car il s’agit bien d’un point différenciateur pour énormément d’utilisateurs. À chaque sortie de nouveau smartphone, les attentes autour de la prise de photo et de vidéos sont scrutées.  Qu’il s’agisse d’Apple, de Samsung, Huawei ou Xiaomi, le point de différenciation se trouve bien souvent sur la capacité de leurs appareils photos intégrés.  D’ailleurs, le nouvel iPhone 11 Pro, présenté lors de la Keynote d’Apple le 10 septembre dernier révèle notamment un triple appareil photo ultra grand-angle et une qualité vidéo 4K plus vraie que nature avec des spécificités techniques impressionnantes (60 images par seconde).

Le pouvoir grandissant de l’image

Plus de 50% des utilisateurs de Snapchat ont moins de 25 ans[4]. Très populaire auprès des adolescents et des jeunes adultes, cette application démontre à elle seule le pouvoir que l’image a sur les nouvelles générations. De discussions par photos et vidéos interposées jusqu’au contenu 100% visuel, les nouvelles technologies ont encore plus exacerbé le pouvoir que l’image a sur les populations. La télévision avait déjà été pointée du doigt à la fin du XXème pour être trop intrusive, tout comme la publicité pour véhiculer une réalité qui n’existait que sur les écrans. Aujourd’hui, l’image est impossible à éviter notamment avec les smartphones. Le partage de photos et de vidéos se fait très facilement et toutes les générations sont amenées à prendre part à cette pratique. Pour preuve, Instagram (dont le modèle repose sur la publication de photos et de vidéos) figure dans le top 4 des applications les plus utilisées en France[5] avec 17 millions d’utilisateurs actifs par mois.

Un marché global de l’image mouvante

Avec la démocratisation de la photographie, de nouveaux accessoires voient le jour pour augmenter les possibilités autour de cette pratique.

Car encore une fois, si une niche reste ancrée sur la photo professionnelle avec des appareils ciblés, la grande majorité des utilisateurs n’utilise que son smartphone pour prendre des photos. Certains réussissent même à pousser l’exercice en professionnalisant leur pratique, devenant ainsi influenceurs et représentants pour des marques grand public. Il n’est d’ailleurs pas rare de voir ces influenceurs passer des contrats avec des marques grâce à leurs photos prises avec smartphone. Qu’il s’agisse du bon angle ou d’un talent inné pour la photographie, le moins que l’on puisse dire c’est que la stratégie des plus grands fabricants fonctionne. Et afin de contenter ces utilisateurs, un florilège d’accessoires a fait son apparition : lentilles pour smartphone, trépieds, stabilisateurs, solutions de stockage et de charge ultra performantes…

Surtout, l’arrivée de la phonéographie permet également aux galeries et musées d’ouvrir leurs portes à une nouvelle génération d’artistes, comme vu récemment avec l’exposition Talking Pictures au Metropolitan Museum of Art (MET) de New-York.

Vers toujours plus de professionnalisme

La démocratisation du smartphone a remodelé le monde de la photographie et de la vidéo. Plus besoin d’être un professionnel pour saisir l’instant présent. Pour preuve, le 15 janvier 2009, c’est avec un tweet accompagné d’une image que l’internaute Janis Krums informe le monde entier qu’un avion a échoué dans l’Hudson River de Manhattan. 10 ans plus tard, des films sont entièrement tournés avec des smartphones avec une qualité souvent impressionnante, comme le Thriller Paranoïa, réalisé par Steven Soderbergh en 2018, ou encore le court métrage Détour, réalisé par Michel Gondry 2017. La question à se poser désormais c’est de savoir si la phonéographie est arrivée à maturité. Il serait facile de répondre par l’affirmative tant les progrès ont été stupéfiants en une décennie. Cependant, alors que certains produits étaient avant destinés à des publics très ciblés (par exemple les amateurs de sport extrême avec la GoPro), aujourd’hui les frontières sont poreuses et le grand public est à la recherche d’une offre globale et de performances techniques à la pointe.

Nous allons de plus en plus vers des écosystèmes de produits bien plus complets pour satisfaire le public : des appareils de qualité, des accessoires utiles et des capacités de stockage qui défient l’entendement, et qui sont, de plus, accessibles au grand public.

La phonéographie n’en est qu’à ses débuts. L’innovation constante des smartphones en matière de photo réduit la frontière entre le téléphone et certains appareils photo. Les smartphones sont sans cesse améliorés avec des mégapixels, capteurs, stabilisateurs et ouvertures de champs qui se rapprochent de certains appareils purement professionnels. Avec la combinaison d’appareils performants et d’écosystèmes d’accessoires pertinents, la phonéographie se professionnalise (prises de vue, support pour la création de contenus photo et vidéo de qualité) et tout cela améliore l’expérience utilisateur et amène à plus de créativité et de passion pour s’exprimer. Le proverbe « Une image vaut mille mots », attribué au philosophe chinois Confucius, illustre parfaitement le poids l’expression visuelle, au cœur de la communication actuelle.