L’IA changera les programmes et la façon dont les profs interagissent avec les étudiants. Shutterstock
Par Andreas Kaplan, ESCP Europe


Le MIT a récemment annoncé qu’il consacrera 1 milliard de dollars à l’étude de l’intelligence artificielle. La plupart des établissements d’enseignement supérieur à travers le monde ne peuvent s’aligner sur de tels investissements. L’IA n’en changera pas moins la façon dont ils enseignent et interagissent avec les étudiants, et influencera les contenus à enseigner.

L’avenir se conjugue au présent

L’IA appliquée à l’éducation n’est plus un scénario de science-fiction. Jill Watson, le supercalculateur d’IBM, remplit déjà à merveille le rôle d’assistant numérique auprès d’étudiants du monde entier. Ses réponses sont tellement convaincantes que certains étudiants de Georgia Tech n’ont jamais réalisé qu’un ordinateur leur répondait.
Gradescope offre un autre exemple de substitution avancée. Il s’agit d’un système d’IA qui seconde les enseignants dans la tâche fastidieuse de la correction et notation de copies. Le temps libéré peut alors être réinvesti dans des activités pédagogiques ou de recherche.
Au-delà du gain de temps, l’IA ouvre aussi la voie à la diffusion d’un contenu complètement personnalisé aux besoins et au rythme de chaque étudiant. Cette technologie peut également aider à compléter l’enseignement traditionnel. À l’Oregon State University, les étudiants suivent des cours en ligne avant les cours en présentiels. Les résultats sont analysés en temps réel et aident les professeurs à ajuster leurs cours en classe ; 85 % des étudiants estiment qu’il s’agit d’une « amélioration modérée ou majeure ».
La Chine offre une vue d’ensemble saisissante de l’essor futur des technologies de pointe : ses établissements utilisent massivement la reconnaissance faciale pour analyser notamment les émotions des étudiants et jauger colère, bonheur et surprise, entre autres.
Premiers concernés par la campagne gouvernementale en faveur de campus intelligents, les étudiants du pays doivent passer par la reconnaissance faciale pour indiquer leur présence, entrer à la cafétéria ou à la bibliothèque. Bien que son potentiel soit encensé par les géants du numérique, les risques de dérive pourraient inciter des universités à se positionner sur ces enjeux.

Repenser les programmes

L’IA aura également une influence sur les cours enseignés par les universités. Actuellement, les programmes scolaires sont créés comme si le monde n’avait guère changé. L’IA pourrait aider à établir des liens entre la performance professionnelle et les cours et les activités parascolaires suivi, ce qui aiderait les établissements à ajuster le contenu des cours et la pédagogie.
Quelles compétences pour ce monde qui phosphorerait à l’intelligence artificielle ? L’ingéniosité et la curiosité semblent indispensables. Des bases en programmation et en analyse de données pourraient faciliter de futures collaborations entre hommes et machines, de la même manière qu’il est utile de connaître quelques mots de chinois quand on travaille avec la Chine.
Enfin, l’éthique sera essentielle. Certains exigent d’ores et déjà des cours liant intelligence artificielle et humanité pour répondre aux questions sur l’équité, l’éthique et la protection de la vie privée.
Pourtant, instaurer ces cours impliquera d’en supprimer d’autres. N’est-ce pas alors le devoir de l’enseignement supérieur que d’aller plus loin et de concevoir de meilleures façons de préparer l’humanité à un monde dominé demain par l’IA ? Pour être provocateur, qu’est-ce qui justifie l’apprentissage des mathématiques ? S’il s’agit d’entraîner le cerveau à penser de manière structurée, d’autres méthodes émergeront probablement grâce à l’intelligence artificielle. Un enseignement efficace au XXIe siècle devrait être fondé sur l’hypothèse de liens intrinsèques entre hommes et machines.

BTP, BDE, Britney

Les effets de l’IA sur l’enseignement supérieur commencent à se faire sentir. Pourront-ils entraîner une innovation de rupture ? Par exemple, les bâtiments physiques vont-ils disparaître ? Cela semble envisageable pour des enseignements qui ne nécessitent ni laboratoires ni équipements physiques.
Cependant, la probabilité que cela se produise est faible. L’apprentissage individuel se fera certes en ligne, mais l’enseignement supérieur ne peut se résumer à l’acquisition de connaissances factuelles : il s’agit tout autant de construire des réseaux proches, d’échanger des idées de vive voix et de se rendre présent.
Les bâtiments resteront importants. Mais les amphithéâtres se transformeront en espaces qui encouragent le travail d’équipe, permettant aux étudiants d’être créatifs, et de vivre des expériences mémorables. Les associations étudiantes telles que le BDE et les clubs sportifs deviendront d’autant plus importants. L’IA et l’Internet des objets rendront possible une occupation optimale des salles, un contrôle plus efficace du chauffage et de l’éclairage, mais aussi des configurations personnalisées pour les différents styles pédagogiques.

L’enseignement supérieur face au numérique : menaces et opportunités.

Le corps professoral devra lui aussi se transformer pour enrichir l’expérience d’apprentissage. Si les étudiants peuvent apprendre le même contenu (encore mieux) en ligne, pourquoi devraient-ils assister aux cours ? Les professeurs survivront-ils dans un tel contexte ?
L’industrie de la musique donne un indice : bien que YouTube propose un contenu inépuisable de vidéos de stars telles que Britney Spears, les concerts sont toujours plébiscités, peut-être même davantage qu’avant. Regarder Britney en direct sur scène sera toujours mieux que de la voir en ligne, et il en va peut-être de même pour les professeurs charismatiques.

Transformation ou disruption ?

Il est certain que de nouveaux acteurs entreront sur le marché, tel qu’University 20.35, où chaque étudiant progresse grâce aux recommandations de l’IA, qui tient compte de son empreinte numérique et de celle des autres étudiants. Toutefois, les nouveaux entrants auront du mal à bouleverser un secteur régulé par l’État, par des accréditeurs privés ou par des exigences de classement. L’enseignement supérieur est plutôt lent et résistant au changement.
Plus problématique, l’enseignement supérieur fait face à la réduction du financement (public), investit beaucoup d’efforts dans la conformité aux accréditations et classements susmentionnés et peine bien souvent à encourager ses professeurs à s’engager dans cette transformation (sans compter l’arbitrage difficile des investissements nécessaires). Ce paradoxe fait écho aux débats opposant chauffeurs de taxi et chauffeurs de VTC, alors que tous deux seront vraisemblablement au chômage dès que les voitures autonomes envahiront nos rues.The Conversation

Andreas Kaplan, Rector, ESCP Europe
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.
datacenter


Par Cécilia Henry-Audebrand, Consultante au sein de l’activité Security4Business chez Magellan Partners


Mars 2018, le scandale Cambridge Analytica fut lourd de conséquences pour Facebook : un cours de bourse qui dévisse de 8 milliards de dollars, une perte de confiance de 40 % des internautes, la suppression de millions de profils utilisateurs privant le réseau social de revenus publicitaires immédiats.

Cette actualité nous enseigne que les impacts d’une violation de données ne se bornent pas à une sanction financière. Ils sont vastes et s’appliquent sur le long terme : perte de confiance des clients, utilisateurs, partenaires, impactant l’activité, voire la pérennité de l’entreprise.

Une réalité comprise par la chaîne hôtelière Marriott, qui face à une violation massive de données a déployé une stratégie de communication particulièrement efficace. En effet, lorsque la presse a titré le vol d’informations confidentielles de près d’un demi-milliard de clients du réseau d’hôtels Starwood, Marriott avait déjà déployé des mesures concrètes de communication et de réduction des impacts : communiqué expliquant les faits, création d’un centre d’appels et d’un site Internet dédié permettant aux clients de savoir s’ils ont été touchés.

Le RGPD, facteur de l’aggravation du risque réputationnel et business


Ces violations de données ont éclaté dans un contexte très suspicieux quant à l’utilisation des données mais aussi dans un contexte médiatique très dynamique, après l’entrée en vigueur du Règlement Général sur la Protection des Données (RGPD). Dorénavant, tout incident portant atteinte à la vie privée de résidents européens est sujet à une couverture médiatique sans commune mesure avec ce qu’elle n’était sous l’ère de la loi Informatique et Libertés de 1978.

Plus encore, elles apparaissent dans un contexte sociétal où la protection des datas devient une préoccupation majeure. D’après une étude : « En 2017, 85 % des Français se disent préoccupés par la protection de leurs données personnelles en général, soit une augmentation de 4 points par rapport à 2014 ».

La gestion de crise, composant incontournable de la réponse à une violation de données


Sur la route, attacher sa ceinture n’empêchera pas l’accident mais en limitera l’impact. De même, se doter d’un dispositif de gestion de crise n’empêchera pas la survenance d’une violation de données mais en minimisera les conséquences.

Anticiper est donc le mot d’ordre. Il faut identifier des scenarii de crise pour déterminer les capacités opérationnelles nécessaires et les actions de remédiation associées. Il est aussi capital d’intégrer une stratégie de communication de crise, vous conférant un avantage stratégique majeur : contrôler l’espace médiatique en s’exprimant le premier, limitant les conséquences sur votre activité et réputation.

Enfin, tester votre plan de gestion de crise est une condition sine qua non à la coordination des équipes et à la prise de décision : la pertinence et l’exactitude des informations remontées aux directeurs et COMEX permettront de déployer des mesures adaptées.

A l’heure où le risque réglementaire induit indubitablement le risque réputationnel, il est vital de connaître le niveau réel d’exposition et de vulnérabilité de votre organisation, qu’il s’agisse de vos pratiques marketing ou de la sécurité effective des données personnelles dont vous avez la responsabilité. Sans cela, toute organisation devra subir ce que les Etats et armées appellent la surprise stratégique. Pour paraphraser le Général d’Armée Pierre de Villiers, elle est l’apanage de ceux qui n’ont pas su prévoir. Ceux finalement qui se sont refusés à prévoir et imaginer les scénarii les plus imprévisibles.

Ping Identity, spécialiste dans le domaine de la gestion intelligente des identités, vient de publier son enquête consommateurs 2019 intitulée "Trust and Accountability in the Era of Breaches and Data Misuse". Les résultats mettent en évidence la récente multiplication des vols de données et des cyberattaques sur une grande échelle impactant ainsi le comportement des consommateurs et leurs relations avec les fournisseurs de services à travers le monde.

Dans le cadre de cette enquête, Ping Identity a interrogé, l'été dernier, un échantillon représentatif de 4000 personnes aux États-Unis, en Australie, au Royaume Uni, en France et en Allemagne.

La protection des données est une préoccupation croissante pour les consommateurs dans le monde entier. Prêt de la moitié (49% au global et 46% en France) des personnes interrogées dans l’enquête ont déclaré être plus concernés par la protection de leurs données personnelles qu’il y a un an. À noter que les pourcentages sont plus faibles en Europe que dans les autres pays concernés (60% aux États-Unis par exemple) ce qui peut s’expliquer par la mise en vigueur du règlement européen RGPD.

ping_identity

ping_identity


Ce résultat est corrélé à un large manque de confiance des consommateurs à travers le monde envers la capacité des marques à protéger les informations personnelles qu’elles détiennent.

●      La sécurité des données personnelles est en tête des dangers liés au numérique. Lorsqu’on demande aux consommateurs quel est pour eux le principal danger lié au numérique au cours des 12 prochains mois, les cinq pays interrogés classent en premier la sécurité des données personnelles (37% pour la France) suivie d’assez loin par la cybersécurité (27%) puis la vidéo surveillance (15%). A noter que la vidéo surveillance est une préoccupation majeure pour les allemands, qui la classent en premier pour 23% d’entre eux, quasiment à égalité avec la cybersécurité (24%), soit dix points au-dessus de la moyenne des autres pays.

●      Un piratage de données peut nuire à l’activité d’une marque. La grande majorité des personnes interrogées (81%en global et 78% en France) stopperaient toute relation avec une marque en ligne à la suite d’un piratage de données. A noter que les allemands sont les plus sévères à cet égard, avec un chiffre de 87%. Également, seuls 14% des répondants en global (20% en France) accepteraient de s’inscrire et d’utiliser un service en ligne récemment victime d’un piratage de données.

●      Les consommateurs attendent des entreprises qu’elles protègent leurs données. L’opinion de 63% des consommateurs interrogés en moyenne dans les cinq pays (62% en France) est qu’une entreprise est responsable en toutes circonstances de la protection de leurs données. Ceci inclut lorsque des utilisateurs sont victimes d’attaques de ‘phishing’ ou utilisent une connexion Wi-Fi non cryptée, même si l’entreprise dispose de peu de moyens pour éviter de telles attaques.

●      Le partage de leurs données personnelles est un problème pour les consommateurs. Plus de la moitié des personnes interrogées (55% en global et 52% en France) déclarent qu’une marque qui partage leurs données personnelles sans leur permission est susceptible de les détourner de l’utilisation de ses produits, encore plus que s’ils apprennent que la marque a subi un piratage de données (27% en global et 26% en France).

●      Les plates-formes de réseaux sociaux n’inspirent pas confiance. Les réseaux sociaux sont le secteur d’activité qui inspirent le moins confiance, avec seulement 28% des personnes interrogées en moyenne (35% en France) qui déclarent être confiants ou très confiants dans la capacité de ces plates-formes à protéger leurs données personnelles. A noter qu’en France, les sites de Retail ne font guère mieux, avec 37%. A l’inverse, les sites dédiés à la santé récoltent un indice de confiance de 70%, suivis par les sites de services financiers (67%).

“Le doute n’est plus permis, les entreprises risquent de perdre des clients et de dégrader la réputation de leurs marques si elles ne mettent pas en place une protection de leurs données efficace et transparente,” a déclaré Richard Bird, chief customer information officer, Ping Identity. “Avec un large pourcentage des consommateurs qui estiment que les entreprises sont seules responsables de la protection de leurs données, les organisations qui offrent à leurs clients des expériences pratiques et sécurisées via une plate-forme de gestion des identités détiennent un avantage concurrentiel, et celles qui ne le font pas sont clairement en danger.”


ai


Par Arnaud Malardé, Senior Marketing Product Manager chez Ivalua

Quel responsable achats n’a jamais rêvé de standardiser son cycle de commande, de la demande d’achat au paiement final de la facture, aussi appelé processus procure-to-pay ou P2P, de sorte à n’avoir qu’une seule procédure qui s’applique à toutes ses catégories achats, toutes les organisations et tous les pays ?

Pendant plusieurs années, les départements achats se sont évertués à unifier, standardiser et optimiser leurs processus tout en centralisant leurs activités. Le mot d’ordre était alors de réduire le nombre de processus, de spécificités et de fournisseurs dans des entreprises où ils s’étaient naturellement multipliés au gré de la croissance, des acquisitions ou réorganisations.

En poursuivant cet objectif d’optimisation, plusieurs d’entre eux ont drastiquement réduit le nombre de processus existants pour n’en garder qu’un ou deux et ainsi augmenter l’efficacité opérationnelle. Du moins, c’est ce qu’ils croyaient. Bien sûr, le coût de mise en œuvre d’un processus unique est bien moindre que celui d’un processus qui souffre de multiples exceptions. De plus, les employés peuvent plus facilement mémoriser un processus de commande unique.


Néanmoins, la standardisation et la centralisation ont leurs limites


Après la crise de 2008, le cadre juridique international a eu tendance à converger du fait d’une coopération renforcée entre les états. Ce n’est plus le cas aujourd’hui. La multiplication des besoins règlementaires locaux et des exigences juridiques propres à des pays ou régions a rendu le processus de commande plus complexe qu’il ne devrait l’être. Pensons seulement à l’impact du Règlement Général sur la Protection des Données (RGDP) en Europe ou à celui des nombreuses mesures nationales de lutte contre la fraude fiscale sur l’ensemble du globe. Notre monde se complexifie. Cela rend souvent difficile l’atteinte des objectifs de simplification.

Par ailleurs, ne pas prendre en compte les besoins spécifiques locaux crée beaucoup d’insatisfaction parmi les utilisateurs du processus de commande. Si cet état de fait perdure, les utilisateurs finiront par chercher une façon de contourner un processus devenu trop rigide. L’application de la politique achats sera de nouveau mise en péril.

Doit-on alors accepter des exceptions au processus de commande standard pour chaque besoin spécifique ?


Cela multiplierait, bien évidemment, les processus et sous-processus au point que personne ne saurait lequel appliquer, pas même les experts de la direction achat. Les exceptions sont coûteuses en temps et en ressources. Ainsi, les responsables achats cherchent un compromis entre un nombre réduit de processus standards et le besoin d’avoir des exceptions. A quel nombre doit s’arrêter ce compromis ? Avoir plus de trois façons de faire est déjà trop pour la plupart des utilisateurs dont la fonction principale n’est pas de passer des commandes. Mais pour un département achats avec un périmètre mondial, les exceptions se compteront en dizaines.

Le compromis que les responsables font tend trop souvent à sacrifier la simplicité et l’expérience des utilisateurs qui se voient obliger de mémoriser des dizaines de processus de commande différents. L’application de la politique achats sera cette fois-ci mise à mal par sa trop grande complexité et l’impossibilité pour ses utilisateurs de s’orienter entre les différentes exceptions au processus de commande standard.

Les directions achats ont bien pensé à des solutions


La première solution que les départements achats ont trouvée a été d’informer massivement leurs clients internes. Les newsletters, blogs, bannières, brochures et bases de connaissances se sont donc multipliés. Les Achats se sont frénétiquement mis au marketing ! Souvent avec des résultats mitigés : seuls les utilisateurs les plus curieux lisent leurs contenus et seuls les plus fréquemment exposés au processus de commande s’en souviennent le moment venu.

La seconde solution des départements achats a été de former les utilisateurs. Le catalogue de formations a donc vu fleurir les sessions. Mais les salles de classe restent largement vides ! Ou alors, les mêmes personnes reviennent années après années se former. Un tel format d’apprentissage fonctionne pour des utilisateurs fréquents mais pas pour les autres qui continueront à se poser la question suivante : « Pourquoi dois-je être formé pour acheter quelque chose dans mon entreprise alors que n’importe qui peut acheter en deux clics sur internet ? ».

Alors, est-ce une guerre perdue d’avance ?


La réponse à cette question a longtemps été affirmative. Depuis peu, des solutions plus efficaces s’esquissent. Lesquelles ? C’est là qu’intervient la puissance de l’Intelligence Artificielle (AI). « Que peut faire l’IA dans tout cela ? » me demanderez-vous ? Et bien, un certain nombre de choses.

Tout d’abord, la mémoire de l’IA est bien supérieure à la nôtre. Elle peut mémoriser un très grand nombre de processus différents. Mais, on pourrait rétorquer que c’est déjà le cas des technologies actuelles de nos ordinateurs qui stockent des données. C’est là que le deuxième avantage de l’IA entre en jeu : l’IA est capable de retrouver de l’information dans un plus large choix de formats et de supports qu’auparavant. Mais, le plus grand atout de l’IA, c’est son incomparable capacité à interagir avec l’utilisateur. Elle est capable de traduire à la fois le langage humain en actions machine et le langage de la machine en information pertinente pour nous.

Imaginons ensemble le futur de l’acte d’achat avec l’intelligence artificielle. Dans cet avenir, un simple utilisateur se préoccupera du produit ou du service qu’il veut acheter. Il n’aura pas à penser au processus de commande pour l’obtenir. Il adressera ce besoin directement à l’assistant virtuel de sa solution achats basée sur les technologies d’intelligence artificielle. Il pourra soit écrire sur son clavier, soit parler dans un microphone. L’IA interagira ensuite avec lui par des questions pour qualifier le besoin (volumes, spécifications techniques, budget, délai) afin d’élaborer la réponse qui lui sera apportée. Cette réponse pourra prendre la forme d’une commande directement adressée à un fournisseur préférentiel si le besoin n’est qu’une simple commodité. Elle pourra aussi prendre la forme d’une demande de sourcing adressée au Sourcing Category Manager en charge de la catégorie parce qu’aucun fournisseur préférentiel n’aura été trouvé et qu’un certain montant aura été dépassé, le tout en conformité avec la politique achats de l’entreprise. Déterminer le bon processus de commande sera le travail de l’IA. Conseiller sur la marche à suivre, les produits ou les services les plus adaptés, les fournisseurs préférentiels aussi. En fin de compte, un utilisateur n’aura plus besoin de connaître la procédure. Il ne pensera plus qu’en termes de besoin, de délai et de budget, ce qui est sa façon naturelle d’acheter.

Bien sûr, l’intelligence artificielle ne fera pas tout


D’abord, les départements achats devront cartographier l’ensemble de leurs processus et les traduire en règles intelligibles pour l’IA. La machine a besoin d’être alimentée au départ pour ensuite pouvoir fonctionner de façon autonome. D’autre part, il y aura un besoin de maintenance pour s’assurer que les règles sont toujours en accord avec les différentes évolutions organisationnelles ou métier. Sur ce dernier point, on peut espérer que les capacités de machine-learning, ou auto-apprentissage par la machine, faciliteront la tâche.

L’intelligence artificielle permettra enfin véritablement un acte d’achat guidé. Les achats hors procédure, ou non conformes, et le mécontentement des clients internes ne seront alors plus qu’un souvenir.
innternet


Le Premier ministre Edouard Philippe a signé mercredi 23 octobre un ensemble de 10 décisions de financement de l’Etat en faveur de réseaux d’initiative publique pour le très haut débit portés par des collectivités, pour un montant global de 242 millions d’euros. Dix départements sont concernés dont trois d'Occitanie. Il s'agit de la Somme, la Côte-d'Or, l'Orne, la Dordogne, l'Yonne, la Nièvre, l'Hérault, la Mayenne, le Tarn-et-Garonne et le Gard.

Infographie: Fibre optique : la France rattrape peu à peu son retard | Statista

4,7 millions de Français concernés

"Ces engagements visent à accélérer massivement le déploiement du très haut débit dans ces 10 départements qui représentent au total 4,7 millions de Français", a indiqué Matignon.
Le Premier ministre s'est félicité de l’accélération du déploiement de la couverture numérique en France. "Grâce aux actions mises en œuvre par le gouvernement, plus de 4 millions de locaux ont été rendus raccordables à la fibre optique durant ces douze derniers mois, portant ainsi à 21,6 millions le nombre total de foyers éligibles à une offre très haut débit", explique Matignon.
Edouard Philippe a confirme que les objectifs fixés par le président de la République en matière de couverture numérique fixe, à savoir la généralisation du haut débit partout en France en 2020 et du très haut débit en 2022, seront atteints. Le Premier ministre a confirmé par ailleurs que 140 millions d’euros seront dédiés dès 2020 à l’accompagnement de nouveaux projets de réseaux d’initiative publique.

Macron met la pression

Le chantier de l'internet à très haut débit est prioritaire pour la France car elle a pris du retard par rapport à d'autres pays. En France le coût du déploiement du très haut débit avait été estimé à 20 milliards d'euros sur 10 ans, en 2013, année où François Hollande avait lancé le plan France très haut débit, dont l'objectif était d'avoir une couverture très haut débit de 100 % du territoire français en 2022.
Devant 600 maires à Souillac en janviier 2019, lors du Grand débat national, Emmanuel Macron avait dit souhaiter accélérer le déploiement du réseau très haut débit, notamment en zone rurale. Le président avait indiqué "mettre la pression" sur les opérateurs pour avancer de deux ans la date initiale.
internet


Christophe Alcantara, spécialiste de l'e-réputation, enseignant chercheur en sciences de l'information et de la communication - IDETCOM Université Toulouse 1 Capitole.

Il y a cinquante ans naissait internet ; aujourd'hui dominé par les réseaux sociaux et les GAFA. Que reste-t-il des idéaux du début ?

Arpanet, l'ancêtre d'internet si on fait un peu d'archéologie d'internet et du web, était initialement créé pour permettre à des machines à calculer de pouvoir partager de la ressource de calcul, ni plus ni moins. Il y a alors eu un détournement d'usage, une hybridation d'usage, c'est-à-dire un usage réel qui n'était pas le même que l'usage prescrit. Cela a permis à Arpanet et plus largement à internet de devenir non pas un outil de partage de la ressource au sens mémoire vive, mais vraiment un outil à communiquer.

Tout cela part de Joseph Licklider, le père d'Arpanet qui a dessiné les utopies fondatrices d'internet. Arpanet n'a pas été créé par l'armée américaine pour l'armée, mais par des chercheurs pour des chercheurs sur des fonds de l'armée avec l'agence Darpa.

Les mythes fondateurs, ce sont le partage, la gratuité, l'échange. Ils ont été bouleversés et révolutionnés par la pratique mais aussi par le fait qu'internet tel qu'on l'utilise aujourd'hui est devenu une technologie de substitution au projet politique des autoroutes de l'information voulu par Bill Clinton et All Gore en 1996.

Facebook et Google, qui ont désormais la puissance d'Etats, deviennent-ils dangereux pour la démocratie ?

Plutôt que de poser la question du danger, interrogeons-nous plutôt pour savoir s'ils ne manipulent pas déjà l'information et la communication. Ils la manipulent d'une façon institutionnelle. Quand vous écoutez les promoteurs de Facebook, d'Instagram, de YouTube, etc. ils reposent toujours leurs discours de promotion sur les mythes fondateurs d'internet : la culture de la gratuité, le partage, l'échange. Mais en vérité, ces utopies fondatrices dont ils truffent leurs propos sont au fond un cheval de Troie pour produire une colonisation numérique. Leur modèle économique repose sur cette colonisation numérique.

Aux Etats-Unis, il y a actuellement un débat, notamment porté par la sénatrice démocrate Elizabeth Warren (candidate à la primaire pour la présidentielle de 2020) sur le démantèlement de Facebook. En Europe, on table sur une régulation ferme avec des amendes. Faut-il démanteler les GAFA, davantage les réguler ?

Si on appliquait strictement les lois antitrust qui existent aux Etats-Unis depuis plus d'un siècle, cela ferait déjà un moment que Google par exemple serait démantelé, c'est une évidence. Ce sont à la fois des acteurs de contenants et de contenus. Et dans le contenu, ils ont une maîtrise quasiment totale de par leur puissance et se retrouvent de fait dans une situation de monopole. Si aujourd'hui il fallait qu'on raisonne en économiste, Schumpeter nous disait que dans l'économie ce qui compte, c'est la destruction-créatrice : en gros plus on innove plus on crée de nouveaux emplois, des émergents deviennent des leaders. Mais dans les faits, sur le web, ça ne peut plus exister car même si vous avez une innovation particulièrement disruptive, elle va être captée par les grands acteurs qui vont l'acheter 3, 4, 5 milliards de dollars. Cela conforte encore plus leur position dominante. Ils passent leur temps à acheter des start-up. Ils sont donc dans une situation de monopole qu'ils contribuent à amplifier. S'ils n'ont pas été démantelés, c'est notamment à cause d'Obama qui était totalement une victime consentante du lobby des GAFA (il a été élu en 2008 grâce à la puissance des réseaux sociaux), avec lesquels il avait une proximité coupable. Donc démanteler, oui.

Aujourd'hui, y a-t-il quelque chose qu'on ne voit pas venir sur internet ?

Le fait de pouvoir coupler de l'intelligence artificielle (IA) sur les réseaux sociaux. Le problème c'est que c'est insidieux. Les gens ne vont pas le voir mais c'est totalement manipulatoire. Aujourd'hui, l'intelligence artificielle a deux natures. Vous avez des algorithmes prédictifs qui vont partir sur de grandes séries statistiques pour prévoir des comportements. Ce qui n'est pas sans interpeller les fonctionnements démocratiques : si je peux anticiper les réactions, voyez comme c'est manipulatoire. Et cela existe aujourd'hui.

Le 2e type d'algorithmes qui va arriver, c'est ce qu'on appelle les algorithmes créatifs. Je ne prends pas appui sur le passé pour me projeter dans le futur mais je suis capable d'apprendre en continu avec mon environnement. Vous imaginez les problèmes éthiques que ça pose. Le vrai enjeu est là.

La notion d'éthique dans les pratiques numériques doit être fondamentale, mais personne n'aborde ce sujet, notamment les politiques qui ne s'approprient pas ce sujet…
datacenter


Le 29 octobre 1969, aux Etats-Unis, le professeur Kleinrock faisait «parler» un ordinateur avec un autre. L'échange de ce message actait la naissance de ce qui allait devenir internet. Cinquante ans plus tard, que reste-t-il des idéaux de départ ?

Ce qu'il y a d'extraordinaire avec une technologie, ce sont les usages détournés qui, par choix ou accident, déclenchent une nouvelle révolution. Le 29 octobre 1969, c'est un ces moments historiques qui s'est produit dans un laboratoire de l'Université de Californie à Los Angeles (UCLA) lorsque le professeur Leonard Kleinrock et ses collègues utilisent leur ordinateur pour échanger un message avec ceux de l'Institut de recherche de Stanford.

Le «miracle» a lieu ce 29 octobre 1969 à 22 h 30. Et il se répétera entre l'UCLA et d'autres universités. Le réseau ainsi formé entre ces universités, Arpanet (Advanced Research Projects Agency Network), constitue bel et bien l'ancêtre d'internet.

Un changement profond de l'internet des débuts

internet

Cinquante ans plus tard, c'est peu dire qu'internet a profondément évolué. Une histoire marquée par toute une série d'innovations comme, le protocole TCP/IP inventé en 1973 par Vinton Cerf et Bob Kahn ; le world wide web (WWW) né le 13 mars 1989 à Genève, au CERN, sous la houlette de Tim Berners-Lee ; ou encore la création de Google le 4 septembre 1998 par Larry Page et Sergey Brin. Au fil de ces cinquante années, les idéaux du début se sont singulièrement émoussés. L'esprit libertaire, le partage, la gratuité a laissé place à un immense marché aujourd'hui dominé par les GAFAM (Google, Amazon Facebook, Apple, Microsft) ou des moins connus (BATX), c'est-à-dire les géants chinois Baidu, Alibaba, Tencent et Xiaomi.

Surtout, la nature même d'internet a changé sous la montée en puissance phénoménale des réseaux sociaux. Des réseaux sociaux que le professeur Kleinrock avoue aujourd'hui n'avoir pas vu venir (lire page suivante) ; des réseaux sociaux aux mains de sociétés qui ont la puissance des Etats et influent sur la marche de nos démocraties. À telle enseigne que se pose la question d'une régulation plus poussée voire d'un démantèlement pur et simple, de Facebook par exemple.

Et dans cinquante ans ?

60seconds_internet

Face à l'extraordinaire puissance informatique dont nous disposons aujourd'hui au creux de notre main avec nos smartphones, difficile de faire des pronostics sur ce qui nous attend dans les cinquante prochaines années, alors que l'intelligence artificielle n'en est qu'à ses débuts.

En revanche, on peut dégager des tendances au moins pour les mois à venir, comme le fait tous les ans Mary Meeker, célèbre investisseuse américaine en capital-risque. Nous passerons ainsi toujours plus de temps devant notre mobile que devant notre télévision, les jeux vidéo multijoueurs (comme Fortnite) vont ressembler de plus en plus à des réseaux sociaux, la communication par l'image va se développer de plus en plus, de nouvelles plateformes vont commencer à grignoter les parts de publicités de Google et Facebook, les solutions numériques dans la santé vont se multiplier, tout comme les enceintes et objets connectés. Mary Meeker prévoit aussi que les utilisateurs vont se soucier de plus en plus de la protection de leurs données personnelles.

À cet égard, le règlement européen sur la protection des données (RGPD) aujourd'hui plébiscité montre que l'Europe porte une certaine vision de ce que doit être internet.

Réunion de wikipédiens en Finlande pour mettre à jour des fiches. Teemu Perhiö/Flickr, CC BY-SA
Par Alexandre Hocquet, Université de Lorraine


Wikipédia est (ou devrait être) un objet extraordinaire à enseigner : tout le monde connaît Wikipédia, et presque tout le monde le connaît mal. Cela devrait être la situation idéale pour un enseignant : intéresser les étudiants avec quelque chose qu’ils connaissent, les surprendre en leur montrant qu’ils peuvent y découvrir beaucoup de choses.
Je propose un cours à toutes les formations et tous les niveaux : la découverte de Wikipédia touche à des compétences transversales et peut être fructueuse de la première année de licence jusqu'au doctorat. Malheureusement, mes propositions restent souvent lettre morte auprès des collègues qui font les maquettes pédagogiques.


Apprendre, analyser, tester… Sean MacEntee / Flickr, CC BY

Un des principaux malentendus est que « enseigner Wikipédia » est vu par les collègues comme une formation courte : au mieux « apprendre à l’utiliser », au pire « apprendre à s’en méfier ». Pourtant, il y a dans Wikipédia de quoi apprendre pendant tout un semestre.
Tout d’abord, plonger dans Wikipédia demande de s’y faire petit à petit. Surtout, Wikipédia est un objet d’étude pertinent pour de nombreux aspects, pour moi qui voudrait enseigner mon domaine de recherche : les STS, ou, dit autrement, les relations entre sciences et sociétés.

Laboratoire d'analyse critique

L’enseignement de l’analyse critique est à la mode en ce moment, particulièrement dans l’injonction ministérielle à se méfier « des théories du complot », à peine différente de l’injonction ministérielle à se méfier « d’Internet ». Pour l’école, pour l’université et pour la presse, ce qui vient d’Internet est suspect a priori et Wikipédia est le « usual suspect » dans les entreprises de décrédibilisation de la part de ces trois institutions. Pourtant Wikipédia est un laboratoire très intéressant pour tester une « analyse critique des médias ».
Plonger dans Wikipédia permet de se mettre à l’épreuve d’une communauté de pairs plutôt que d’une voix magistrale. Intervenir dans Wikipédia, c’est soumettre sa production (ou tout simplement son avis) aux mécanismes de recherche de consensus, de la vérifiabilité, de la neutralité de point de vue (des notions wikipédiennes qui elles-mêmes demandent à être déconstruites mais cela s'apprend en plongeant dedans).

Ces notions épistémologiques ne sont pas seulement celles d’un mode de production de connaissance bien particulier, elles sont aussi liées (et se façonnent mutuellement) avec l’infrastructure technique et logicielle de Wikipédia (qu’est ce que le wiki et d’où vient-il ? Que sont les bots et comment travaillent-ils ?), l’infrastructure juridique et politique (quel est le rôle de la Wikimedia Foundation, en quoi la production est elle liée aux licences ?).

Enseigner le bien commun

Les licences utilisées dans Wikipédia, et Wikipédia elle-même, sont aussi un projet politique lié au monde du libre, aux « creative commons », et plus généralement aux « biens communs ». Enseigner Wikipédia c’est aussi enseigner un projet politique particulier et nouveau : c’est le seul « bien commun » à avoir réussi à exister à grande échelle. Les politiques du libre ne sont pas seulement un projet, ce sont aussi une mise en oeuvre, dans lesquelles la notion de forking est primordiale (le forking, en tant qu’action politique, est l’équivalent d’un schisme en religion; à la fois une garantie de démocratie et une menace de division).


Wikipedia, un bien à partager. cea+ / Flickr, CC BY

De manière plus générale, Wikipédia est un des rares exemples à grande échelle d’un projet qui se veut « Open » et qui est obligé chaque jour par la pratique de définir ce qui est « Open » et ce qui ne l’est pas, parfois avec violence. L'Open est un concept flou. Au delà d’un washing politique ou d’une vision militante, définir ce qu'est l'Open en pratique est malaisé. Wikipédia est donc une étude de cas essentielle pour comprendre les « politiques de l’Open ».
Enfin, Wikipédia est aussi une communauté et ce projet politique est aussi un projet d’organisation communautaire par les principes, les règles, les protocoles et la technique. L’organisation des débats, les règles de recherche de consensus, les procédures de vote s’y inventent. Wikipédia est une excellente étude de cas pour enseigner la « culture numérique » par l’exemple.
Wikipédia permet de comprendre des projets techniques, des projets politiques, des projets épistémologiques liés au monde du libre, au monde du software, au monde des « algorithmes » et transpose ces notions dans un monde accessible au grand public. En ce sens, j’ai la conviction que, pour comprendre ce monde, pour acquérir une « littératie numérique », il est plus utile de plonger dans les entrailles de Wikipédia que « d’apprendre à coder ».

Politique, technique et sociologie

Mon but est de parvenir à faire partager ma vision distanciée mais pas complètement de Wikipédia, faire toucher du doigt comment Wikipédia est un monde avec des aspects techniques, des aspects politiques, des aspects sociologiques, démocratiques, juridiques, épistémologiques uniques et surtout complètement entremêlés les uns aux autres. Je le fais en racontant des anecdotes.


Wikipédia, tout un monde. Esther Vargas / Flickr, CC BY-SA

Ces anecdotes ont pour but de révéler ces enchevêtrements en racontant une histoire. Elles sont censées surprendre sur un sujet que tout le monde connaît mais que personne ne connaît ET révéler les tensions et interpénétrations de tous ces thèmes. Elles servent aussi à provoquer des questions-réponses, particulièrement si l’anecdote a, ou a eu, un succès médiatique ou si elle a été relatée dans la presse.

Par exemple, quand est abordée la question de l’ajout de photos, les principes de wikimedia commons, et/ou les règles du copyvio, l’anecdote du selfie du macaque met en lumière ces sujets, leur enchevêtrement, et leurs implications à la fois juridiques, techniques, procédurales, et de choix de licence, tout en traitant du militantisme du copyleft. L’anecdote est donc tout sauf futile : elle met en lumière cette complexité.
En dehors de la structure universitaire, une équipe de wikipédiens a créé un Massive Online Open Course qui a pour but de faire découvrir Wikipédia et d'apprendre à y contribuer. Il est pédagogiquement très réussi, beaucoup mieux que de nombreux MOOCs réalisés par des professionnels. Le but de ce MOOC, évidemment sous licence libre, est d'être réutilisable, modulable, modifiable pour pouvoir être enseigné dans différents cursus universitaires.
Il reste beaucoup de choses à faire pour rendre l’Université et l’enseignement de Wikipédia compatibles, mais de plus en plus de gens s’y mettent… et en débattent.The Conversation


Apprendre à contribuer sur Wikipédia.

Alexandre Hocquet, Professeur des Universités en Histoire des Sciences, Visiting fellow at the Science History Institute, Université de Lorraine
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.
AirbusCyberSecurity


La France continue de muscler la sécurité des opérateurs d'importance vitale (OIV), c'est-à-dire des organisations identifiées par l'État comme ayant des activités indispensables ou dangereuses pour la population. On en compte actuellement 250 dans 12 secteurs d'activité (activités civiles, militaires, santé, énergie, transports, télécommunications, etc.). Pour faire face aux nouvelles cybermenaces, l'article 22 de la loi de programmation militaire, qui fait suite aux préconisations du Livre blanc sur la défense et la sécurité nationale de 2013, a imposé aux OIV le renforcement de la sécurité des systèmes d'information critiques qu'ils exploitent.

La France est ainsi le premier pays à être passé par la réglementation pour mettre en place un dispositif efficace et obligatoire de cybersécurité de ces infrastructures critiques.

C'est dans ce contexte que Thales et Airbus CyberSecurity, leaders européens des systèmes d'information critiques et de la cybersécurité, viennent de s'associer pour accompagner les OIV dans la lutte contre les cyberattaques.

Une solution unique pour détecter les virus

Les deux sociétés vont proposer une solution unique associant le système d'analyse de fichiers Orion Malware d'Airbus CyberSecurity et la sonde de détection d'intrusions Cybels Sensor de Thales. Cette dernière a reçu en avril 2019 le visa de sécurité de l'Agence nationale de la sécurité des systèmes d'information (ANSSI) pour sa qualification élémentaire.

La sonde de Thales, déjà active chez de nombreux clients (la Poste, Galileo) est capable d'analyser de grands volumes de données. Les fichiers suspects capturés sur un réseau par la sonde sont ensuite analysés de façon approfondie en moins d'une minute par Orion Malware, qui fait appel à de l'intelligence artificielle pour améliorer la classification des virus détectés. Le rapport clair qui en découle, accessible aux non-experts, permet ensuite d'apporter les bonnes réponses aux cyberattaques.
vtc


Par Théodore Monzies, co-fondateur de Eurecab, plateforme de réservations de VTC

Unanimement reconnues par les clients pour leur efficacité, souvent décriées par les livreurs ou les chauffeurs pour leur manque d’humanité, les plateformes numériques de services ne laissent pas indifférentes. Qu’il s’agisse des livreurs Déliveroo ou des chauffeurs Uber, des dizaines de milliers de personnes travaillent désormais pour ces entités en France. Dans le monde, ils sont des millions.

Il y a quelques jours, un séisme a ébranlé ce petit monde. L’Etat de Californie a adopté une loi obligeant les entreprises Uber et Lyft à traiter leurs chauffeurs non plus comme des indépendants, mais comme des employés . Il y a quelque chose de troublant dans cette décision. Non pas que l’on se soucie de la condition des chauffeurs, mais plutôt que l’on puisse se contenter de penser qu’il y aurait seulement deux voies possibles : d’un côté le salariat et la protection des chauffeurs, de l’autre le statu quo et leur exploitation à outrance. Car aucune de ces deux voies n’offre un futur satisfaisant.

La première – le salariat- n’est tout simplement pas adaptée à l’économie des services à la demande. Dans le transport de personnes par exemple, les variations de demande, de temps de trajet, sont tellement fortes et imprévisibles qu’organiser un planning de chauffeurs relève du cauchemar. Deux sociétés ont essayé ce modèle : Navendis et Voitures Jaunes. Aucune d’entre elles n’est encore en vie aujourd’hui.

La seconde option -le statu quo- n’est pas non plus envisageable. La décision de l’Etat de Californie est révélatrice d’un malaise plus profond qui touche les travailleurs œuvrant sur ces plateformes. Ce malaise tient au décalage entre le discours commercial vantant l’indépendance et la réalité. Comment en effet affirmer que les travailleurs des plateformes sont indépendants alors que par exemple ils subissent des baisses de rémunération décidées unilatéralement ? Tant que ce décalage ne sera pas réduit, le modèle actuel des plateformes sera attaqué et alimentera le fantasme d’une humanité gouvernée par les algorithmes.

Il est donc nécessaire qu’il y ait un rééquilibrage du rapport de forces entre les plateformes et leurs travailleurs. Ce rééquilibrage doit provenir des plateformes elles même et non du régulateur. En effet, ce serait courir le risque d’une réglementation soit constamment en retard d’un temps par rapport à des évolutions techniques beaucoup trop rapides, soit trop contraignante -par exemple salarier tous les chauffeurs.

Aux plateformes donc de se réinventer pour être à la hauteur des attentes de la société. La tâche est difficile mais pas impossible : il faut rendre aux travailleurs des plateformes leur indépendance, leur permettre d’opérer comme de vrais entrepreneurs mais sans pour autant dégrader la qualité et la compétitivité du service offert aux client. Pour cela, une seule solution : la plateforme doit se positionner non plus comme un intermédiaire opaque qui décide de tout, mais comme un facilitateur qui crée les conditions afin qu’offre et demande puissent se rencontrer.


hacker


A l’occasion du du mois européen de la cybersécurité et alors que se déroulent les Assises de la Sécurité (du 9 au 12 octobre 2019), le cabinet Wavestone dévoile le panorama de son benchmark dédié aux incidents en matière de cybersécurité.

Pour cela, le cabinet a passé en revue les interventions de son équipe de gestion de crise cybersécurité, le CERT-W, entre septembre 2018 et août 2019. "Cela constitue une quarantaine d’incidents de sécurité majeurs ayant mené à l’interruption d’activités métiers ou une compromission avancée de systèmes d’intervention et ce, dans des secteurs diversifiés : industrie, secteur public, agroalimentaire, technologies de l’information, finance, etc. L’enjeu de ce benchmark est d’éclairer les organisations et plus globalement la société sur l’état de la menace cyber en France et de partager les clés pour une meilleure anticipation et gestion des risques, au travers de retours d’expérience concrets", explique le cabinet.

Motivation première : l'appât du gain

Pour 43% des attaquants, la motivation première reste les gains financiers. Ces attaques sont issues de ransomwares (virus bloquant les ordinateurs et demandant une rançon) pour la majorité des réponses des incidents analysés (36%), suivies des actions frauduleuses (7%).

Le vol de données

La deuxième motivation des attaquants est le vol de données, tant métiers que techniques. Cela représente 34% des attaques analysées. 4% des attaques visent à nuire à l’image de l’entreprise via de la défiguration de sites web, le vol de comptes sur les réseaux, etc. et 4% des compromissions visent à gagner en nouvelles capacité d’attaque : contournement des mécanismes de sécurité, attaques sur des partenaires de confiance, écoute illicite du réseau, etc.

167 jours entre une intrusion et sa détection 

La moitié des organisations figurant dans ce benchmark sont parvenues à détecter l’intrusion dans les deux jours après le commencement de l’attaque. Cela démontre une forte capacité en détection, qui leur a permis de réagir rapidement et d’optimiser leur chance de stopper un effet domino qui aurait amené à la compromission de l’Active Directory, le cœur du Système d’Information. 35% des entreprises n’ont pas réussi à le détecter dans les 6 à 9 mois.

En croisant ce constat avec les méthodes de détection, le constat est plus inquiétant encore : seulement 26% des incidents de sécurité sont identifiés par le service de détection cybersécurité de l’entreprise. Dans 44% des cas, ce sont les collaborateurs qui ont alertés directement.

Plus de 50% des attaquants ne présentent pas de compétences techniques avancées

La majorité des cyber-attaquants sont opportunistes (65%), ils ne relèvent pas d’un haut niveau de technicité ou ne visent pas une organisation en particulier. Ils cherchent et abusent des systèmes peu protégés et facilement attaquables. Ces attaques pourraient être évitées si les mesures de sécurité étaient situées au-dessus de la moyenne.

30% des attaques gérées ciblent spécifiquement une organisation. Elles visent des informations sensibles et précises au sein de l’organisation. Les attaquants sont mandatés avec un objectif clair et mettent ainsi tous les moyens à disposition pour arriver à leurs fins.

Enfin, 5% des attaques sont considérées comme « diffuses » : celles-ci correspondent aux habituelles infections virales ou encore au spam. Elles ne visent pas une organisation particulière et ont un effet limité sur le SI (de type déni de service, perte de données utilisateurs, etc.). Cela permet d’estimer au mieux le niveau de compétences techniques des attaquants.

Toujours les mêmes portes d’entrée...


  • Dans la majorité des cas (1 cas sur 3), l’attaquant a exploité une application web vulnérable, ce qui met en relief un chiffre alarmant issu d’une précédente étude de Wavestone : 100% des applications web sont vulnérables… ce sont autant de portes d’entrées facilement accessibles.
  • Pour 1 cas sur 10, l’attaquant s’est infiltré dans le système d’information en exploitant un service RDP exposé sur Internet (mécanisme standard permettant l’accès à distance à des systèmes informatiques).
  • Enfin, pour 1 cas sur 10, l’attaquant s’est infiltré dans le système d’information par un spear-phishing (phishing ciblé visant une entreprise spécifique ou un groupe d’utilisateurs particuliers).

Pour 20% des cas, l’identification du vecteur d’intrusion a été vaine : manque de traces techniques, destruction ou le décommissionnement des systèmes, manque de ressources locales pour mener à bien les actions d’investigation, …

Au moins 6 semaines sont nécessaires pour une reconstruction saine

Le temps nécessaire pour revenir à une situation technique normale dépend de la taille de l’entreprise, de son niveau de maturité en matière de cyber-résilience mais également et fortement du type d’attaque auquel elle est confrontée :

A 1 semaine la durée de retour à la normale pour un ransomware dit « simple » ;
A 3,5 semaines la durée de retour à une situation correcte pour une attaque ou un ransomworm ayant détruit une partie importante du système d’information;
A minima 6 semaines pour une reconstruction saine du SI. Cela induit la reconstruction du cœur de confiance du système d’information pour bascule vers un nouvel environnement sain mais également le nettoyage et la réimportation des données métiers créés pendant la crise.
Ces semaines de reconstruction ont, pour la plupart des cas, un impact fort sur l’activité de l’entreprise et ainsi sur son chiffre d’affaire.
code


David Bégasse, Animateur de l’équipe d’architecture et d’expertise en Web Technologies chez SII

Apprentissage du code sur les bancs de l’école, formations pour adulte à marche forcée, essor de plateformes « no code » ou encore intelligence artificielle : jamais le monde du développement en 2019 n’avait semblé autant à portée de clic des entreprises. La quatrième révolution industrielle semble avoir fait davantage que descendre le code de son piédestal : elle permet à tout un chacun de créer plus rapidement des applications métiers basiques. Alors forcément, face à une pénurie de développeurs sur le marché du travail, on est en droit de se demander : demain tout le monde sera t-il développeur ? Le métier du développement est-il progressivement en train de disparaître … ou bien seulement en train de muter ?

Le code à portée de clic


En une dizaine d’années, l’informatique a connu des mutations très profondes. En pleine transition digitale, les grandes entreprises ont dû coller aux besoins de leur clientèle, parfois plus vite que ce que l’informatique était capable de produire : pénurie de développeurs, manque de compétences sur des technologies fraichement débarquées, etc. Pour gagner en productivité et rester dans le wagon de tête, l’idée de limiter les coûts de production pour intégrer des solutions clés en main, sans beaucoup de technicité et donc de code, fit rapidement son chemin.
Sur ce point précis, l’arrivée de l’intelligence artificielle a justement été un raz-de-marée technologique. En 10 ans, elle a pu faire émerger tout un lot de plateformes : « no code » (sans code), « low code » (avec peu de code) ou encore « sketch to code » (dessiner pour coder). Celles-ci ont permis à des salariés qui n’étaient pas des experts techniques de mettre rapidement en place dans une entreprise des applications simples sans l’aide de développeurs. Ces outils peuvent déployer des applications quatre fois plus rapidement qu’un développeur traditionnel. Ils ont démocratisé l’accès au code dans le monde du travail et ont fait muter les métiers du développement.

Les développeurs en mutation


Si la démocratisation du code est certaine, le métier de développeur n’est pas pour autant menacé d’extinction. En revanche, il ne se limitera plus à une simple activité de codeur. L’IA le génère mieux que lui. Somme toute, le débat est le même qu’on trouve dans la sphère publique sur l’évolution des métiers du digital. Les tâches exécutives seront délaissées au profit de missions à plus haute valeur ajoutée. Si l’IA assure les tâches basiques de développement, place au développeur de devenir son superviseur, son orchestrateur. En bref, un chef de projet du code qui puisse gérer les algorithmes… qui génèrent du code.
Par ailleurs, on observe que le marché est surtout en voie de segmentation. Le mythe du développeur « full stack » ne trompe plus personne. Avec de nouveaux langages de programmation qui tombent tous les 6 mois, il est illusoire de croire qu’un développeur puisse tous les maîtriser. Le temps de l’informaticien des années 70 qui maîtrisait la chaîne de A à Z est aujourd’hui révolu. En 2019 un développeur se spécialise sur certains segments informatiques. En ce moment même, certains s’orientent justement vers les plateformes low code en faisant un pari sur l’avenir pour venir former une toute nouvelle génération de développeurs.
Sur des besoins spécialisés, il faudra faire appel à un développeur. En effet, ces plateformes ne peuvent couvrir tous les besoins informatiques.  Elles brident la liberté et la créativité des projets alors que les entreprises souhaitent en garder la maîtrise de A à Z.
L’intelligence artificielle a favorisé l’émergence de plateformes « no code »  qui ont démocratisé les métiers du développement. A l’avenir, nous ne serons pas pas tous développeurs. Mais nous serons tous des artisans du code capables de concevoir nos propres applications avec le support de machines… qu’il faudra bien pouvoir coder… grâce aux développeurs.


Après Free et SFR, il était temps pour Orange de mettre à jour sa Livebox. C'est désormais chose faite avec la présentation, ce mercredi de la Livebox 5 conçue avec une empreinte carbone réduite et des débits doublés.

Davantage de débit

La Livebox 5 est désormais plus simple à installer car elle nécessite moins de câbles, n’ayant plus besoin du boîtier fibre (ONT) qui s'intercalait entre la prise et la box. La nouvelle Livebox 5 apporte un débit jusqu’à 2Gbit/s partagés en sens descendant et jusqu’à 600Mbit/s en sens montant. Le débit descendant a de son côté été doublé et permet des usages simultanés pour tous les équipements du foyer en offrant jusqu’à 1Gbit/s par équipement. Ces débits augmentés permettent de profiter des nouveaux usages comme regarder des vidéos en streaming en haute qualité.

Un nouveau Wifi

Autre point d'amélioration, la couverture du Wifi. La nouvelle Livebox est équipée d'un "Wifi intelligent" mais qui reste un Wifi 5 alors que la nouvelle norme Wifi 6 vient de sortir... Ce wifi selon Orange, "réduit les perturbations générées par le Wifi des voisins en sélectionnant automatiquement la meilleure fréquence et le meilleur canal de la box. Les tests ont permis de montrer une amélioration de 40% des débits descendants (en comparaison avec le Wifi des Livebox non équipées)", explique Orange. 
Par ailleurs, pour une meilleure couverture de grands appartements ou des maisons, un répéteur Wifi est mis à disposition gratuitement sur demande avec les offres Livebox Up et Packs Open Up.


Une Livebox plus verte

La nouvelle box est également plus verte. "À chaque génération de Livebox, Orange cherche à progresser dans la réduction de l’impact carbone de ses équipements. Chaque année, ce sont 2,7 millions de Livebox qui sont réemployées, et 100% des box restituées qui sont recyclées", explique l'opérateur en préambule. 
"Dans la continuité des démarches entreprises avec la Livebox 4 et le décodeur TV UHD, Orange a travaillé avec son écosystème de partenaires pour améliorer la production et diminuer de 29% l’empreinte carbone de la nouvelle Livebox 5", assure Orange.
La nouvelle box dispose ainsi d'une coque 100% en plastique recyclé, d'une fabrication plus légère et plus compacte, de moins de composants électroniques et d'un nouveau design permettant une ventilation passive, sans ventilateur.
« De ses fonctionnalités aux composants et matériaux utilisés, notre nouvelle Livebox a été conçue pour offrir le meilleur du réseau tout en réduisant son impact environnemental. Orange est particulièrement fier de lancer aujourd’hui un produit qui répond à la fois à notre exigence de qualité des services proposés à nos clients et à notre exigence de responsabilité environnementale » précise Fabienne Dulac, Directrice Exécutive d’Orange France. 
La nouvelle Livebox est disponible dans l’offre Livebox Up Fibre (à partir de 30,99€/mois pendant 12 mois puis 49,99€/mois) et l'offre Packs Open Up Fibre (à partir de 28,99€/mois pendant 12 mois puis 52,99€/mois).

computer


Par Christian Dhinaut, Directeur Stratégie Produits CRM Divalto

Boosté par la demande des entreprises et les évolutions technologiques, le marché du CRM (Customer Relationship Management ou la gestion de la relation client) est en pleine croissance et évolue à toute vitesse. En 2018 par exemple, il représentait 48,2 milliards de dollars de chiffre d'affaires selon Gartner* et devrait atteindre 1 065 millions d'euros en 2021, devenant ainsi le principal poste de dépense des entreprises en matière de logiciels. Pourquoi ? Grâce à de nouvelles tendances dont la percée est inévitable et l'intégration indispensable : l'intelligence artificielle, les objets connectés, le CRM mobile ainsi que l'hyperpersonnalisation.

Ainsi, par bien des aspects, le digital a révolutionné les processus d'entreprise, y compris au sein de la Gestion de la Relation Clients. Aujourd'hui, pour mener à bien la transition des entreprises dans le domaine du CRM, il est nécessaire de bien comprendre les enjeux de l'adoption de ce type de solutions et de la mettre en place intelligemment. Objectif : faciliter par la suite l'intégration des nouvelles innovations technologiques avec lesquelles il faudra compter.

Réussir son projet CRM en 4 points clés !

Point 1 - Adopter une démarche globale centrée sur le « parcours client »


Un outil non exclusif aux commerciaux & des bénéfices pour tous les services
Une des idées reçues sur les CRM est que seuls les employés travaillant au service vente d'une entreprise sont concernés par les logiciels de Customer Relationship Management. Or, il est important pour tous les collaborateurs d'une entreprise de penser au développement de la relation clients. Bien évidemment, les services marketing seraient les premiers de la chaîne de développement à devoir s'équiper de ces applications logicielles mais les acteurs de la logistique et de l'ingénierie devraient également être sensibilisés. Impliquer les collaborateurs de tous les services dans le processus de mise en place d'une solution CRM permet d'optimiser son utilisation et son efficacité dans les stratégies à long terme.
Un outil pluridisciplinaire pour une meilleure compréhension du client
Attention également à ne pas négliger l'aspect « parcours client » dans le développement d'une entreprise du XXIème siècle. Les entreprises qui ont fait succès ces dernières années sont celles qui ont misé sur une stratégie cross-canal ou omnicanal : soit répondre de façon personnalisée aux questions des acheteurs potentiels ou fidèles via tous les canaux numériques et traditionnels. Il s'agit ici de se démarquer auprès d'acheteurs constamment sollicités par la concurrence. Et si l'omniprésence des logiciels CRM est bien établie dans le BtoC, comme peuvent en témoigner le succès des TUNA (Tesla, Uber, Netflix et Airbnb), le secteur du BtoB est loin derrière. L'intérêt pour les entreprises BtoB est donc de se positionner au plus vite afin de bénéficier du statut de précurseur dans le domaine tout en optimisant leurs relations clients.
Les avantages d'établir une démarche « parcours clients »
Le processus d'implémentation d'un logiciel CRM dans une entreprise sera d'autant plus réussi s'il s'appuie sur cette démarche globale du développement de « parcours clients ». Cette dernière a d'ailleurs de multiples avantages dans la compréhension globale des comportements des acheteurs. Notamment, une meilleure compréhension du parcours achat, surtout à cette époque de l'ère digitale où les acheteurs potentiels ont accès à tous types de renseignement grâce à Internet. Ces processus peuvent également permettre d'appréhender et de réduire les obstacles entre la première prise de contact et l'acte d'achat, d'améliorer l'expérience client et de le fidéliser. Enfin, une entreprise qui a réussi dans sa démarche centrée sur le « parcours clients » pourra faire de ses acheteurs fidèles de véritables ambassadeurs de la marque.

Point 2 - Sensibiliser l'organisation à la pratique du CRM


D'après une enquête du cabinet ACEMIS parue en 2016 sur les causes d'échecs de mise en place de CRM en entreprise, il ressort que le premier frein majeur à l'usage des CRM est la difficulté pour les utilisateurs à l'adopter. Face à un logiciel impliquant nécessairement de grands changements dans leurs habitudes de travail, l'entreprise se doit alors de mettre en place une véritable communication autour du projet pour affirmer sa nécessité et son intérêt dans sa transformation digitale.
Un processus d'implication des collaborateurs nécessaire
Impliquer les collaborateurs dans le processus de développement de la solution est un bon moyen de leur faire accepter ces changements majeurs, en leur demandant par exemple de valider le paramétrage des données, de l'interface et des règles d'utilisation. Il est également vital à la pérennité du projet de consacrer une partie du budget à la formation des équipes ; une adoption rapide du logiciel rentabilisera bien plus vite l'investissement.
En dernier lieu, après implémentation de la solution CRM, il convient de vérifier qu'elle est correctement et intégralement utilisée par les différents services de Gestion de la Relation Clients en effectuant un suivi régulier.

Point 3 - Structurer les données clients et valider l'intégration du SI


Assurer la qualité et la fiabilité des données
Si la difficile adoption des logiciels de CRM est le premier frein pour établir une solution CRM pérenne, assurer la qualité des données enregistrées est le second. L'un des points clés de l'intégration d'une solution CRM réussie est de récupérer les données précédemment traitées sous d'autres formes et de les intégrer au nouveau système CRM. Un nettoyage des bases de données récupérées est fortement préconisé à ce stade, ainsi qu'un enrichissement à partir de sources externes. Une donnée saisie (entreprise, activité, intérêts, contact, ...) étant rapidement obsolète, il faut s'assurer de sa mise à jour régulière.
Un découpage des tâches et une attribution des rôles au sein de l'entreprise peut également aider à un meilleur développement de la solution. Par exemple, définir clairement qui sera concerné par tel type de données permet une organisation plus fluide et surtout d'assurer que les données seront attribuées aux spécialistes en la matière. Il convient de mettre en place des KPI concernant la qualité et la complétude de la base de données : savoir si tous les champs utiles sont bien remplis et s'ils sont à jour. A titre d'exemple, si le décideur ciblé chez le prospect est le directeur financier il faut que les champs relatifs à ce profil soient complétés. Cela permet d'enrichir sa connaissance client et ses capacités de ciblage et segmentation.
Intégrer le logiciel CRM au système d'informations existant
Il s'agit également d'implémenter le CRM dans le S.I, notamment de le connecter au logiciel ERP et au formulaire de prise de contacts sur le site web de l'entreprise. L'un des enjeux de la mise en place d'une telle solution de Gestion de la Relation Clients est donc de veiller à ce qu'elle puisse s'intégrer aux logiciels déjà utilisés dans l'entreprise (agenda, messagerie, etc.). Au lieu de créer un tout nouveau logiciel qui viendrait s'ajouter aux autres, il s'agit de développer une solution qui se connecte à l'ensemble des outils déjà en place. Avant tout choix de CRM, il sera ainsi nécessaire de faire valider par des équipes techniques les possibilités d'interfaçage de la solution (API, webservices, webhook, etc.)

Point 4 - Choisir un CRM adapté aux besoins de l'entreprise

Un logiciel adapté aux principaux utilisateurs
La réussite d'un projet CRM repose évidemment sur le choix d'un logiciel adapté aux besoins de l'entreprise. Il s'agit d'identifier les besoins de l'entreprise en établissant un cahier des charges qui répondra à des questions du type :  Qui utilisera la solution ? Ce CRM convient-il au business model de l'entreprise (actuel et futur) ? Après avoir répondu à ces quelques questions, l'entreprise concernée peut effectuer un premier tour de marché et sélectionner les outils susceptibles de répondre à ses besoins. A ce stade, il ne faut pas hésiter à mettre en place un environnement de test ou POC (Proof Of Concept) pour valider la réponse aux besoins avec les utilisateurs cibles.
La solution se doit d'être personnalisable au type d'activité de l'entreprise. L'outil idéal doit être suffisamment souple pour s'adapter aux besoins spécifiques des équipes opérationnelles (force de vente, marketing, service clients, finances, ...)
Une solution pour chaque business model
Il convient de se doter d'un outil qui pilote le business model de l'entreprise à la fois par le traitement de tous les canaux de vente, et la mise en place d'outils reporting et analytiques.
computer


Par Chris Huff, Directeur de la stratégie chez Kofax

Une image contenant homme, personne, complet, murDescription générée avec un niveau de confiance très élevéL'automatisation robotisée des processus (RPA) est un sujet d'actualité de nos jours et, à juste titre, un point d'intérêt dans de nombreuses initiatives de transformation numérique. En fait, la quête pour trouver le fournisseur de l'outil RPA qui possède le plus de gadgets et de widgets est devenue une sorte de « combat de rue ». Mais ceux qui se focalisent sur ce niveau tactique peuvent perdre la vue d'ensemble. Pour vraiment aller de l'avant avec les initiatives de transformation numérique et résoudre un plus large éventail de problèmes de gestion avec l'automatisation, les entreprises recherchent de plus en plus les capacités d'une plate-forme d'automatisation qui leur permet d'optimiser leurs opérations de bout en bout.

Bien qu'il puisse sembler au départ décourageant de déployer une plate-forme pour des opérations de bout en bout, les professionnels IT peuvent suivre un processus en trois étapes pour structurer leurs initiatives en vue de la transformation numérique de leur entreprise.

Étape 1 : Comprendre où on en est aujourd'hui

La transformation numérique commence par l'évaluation de l'état de préparation opérationnelle du point de vue de la technologie et des processus. L'informatique joue un rôle indispensable pour faire en sorte que les technologies de transformation, telles que l'automatisation, s'intègrent dans le cadre informatique plus large. Le groupe IT établira également des lignes directrices pour la gestion et la sécurité de l'environnement technologique.

Parallèlement à la participation des services informatiques, il est important d'impliquer des parties prenantes plus fonctionnelles dans l'ensemble de l'entreprise pour évaluer dans quelle mesure leurs processus sont bien documentés. L'automatisation est plus puissante lorsqu'elle est déployée sur des processus bien définis et qui fonctionnent déjà correctement ; son ROI peut être plus complexe lorsqu'elle est déployée sur des processus fragmentés ou sans documentation. En d'autres termes, il faut d'abord optimiser et ensuite automatiser pour obtenir les meilleurs résultats.

Étape 2 : Établir une analyse de rentabilisation pour l'automatisation et adopter une « approche plate-forme » dès le premier jour


Après avoir effectué les évaluations de « l'état de préparation opérationnelle » ci-dessus, il est important d'établir une analyse de rentabilisation qui établit clairement les liens entre l'automatisation et les objectifs de l'entreprise en termes stratégiques, de gestion d'effectifs, de gains opérationnels et financiers. Avec une telle analyse de retour sur investissement, tous les cas d'utilisation possibles devraient être classés en fonction de leur potentiel pour l'entreprise. Une organisation qui effectue ce travail dès le départ est plus en mesure de déterminer quelles technologies d'automatisation sont nécessaires pour résoudre les problèmes opérationnels qui leurs sont propres. Plus précisément, ces problèmes peuvent aller de l'amélioration de la façon dont l'information est saisie et extraite jusqu'à des actions précises dans les systèmes et applications en aval.

Après avoir pris des mesures pour harmoniser les cas d'utilisation qui génèrent un retour sur investissement, ainsi que les technologies requises pour les automatiser, une organisation peut passer à la conception de solutions d'automatisation au sein de la plate-forme. Un tel groupe de technologies qui automatise les processus d'affaires de bout en bout crée une valeur significative pour une organisation lorsqu'elles sont regroupées et intégrées dans une plate-forme. Ces technologies comprennent :


  • Capture cognitive : Intégrer depuis n'importe quel canal et comprendre n'importe quel document pour en extraire l'information pertinente.
  • Orchestration des processus : Intégrer les personnes, les technologies d'automatisation, les systèmes, les applications, etc. le long d'un flux de travail plus large d'une manière intuitive pour l'utilisateur métier.
  • Mobilité et engagement : Engager les clients de manière efficiente par le biais d'Internet ou d'appareils mobiles.
  • Analyses avancées : Fournir un aperçu axé sur les données en fonction des résultats obtenus grâce à l'automatisation.
  • Intelligence Artificielle : Automatiser la prise de décision complexe et personnaliser le service aux utilisateurs finaux.


Une approche de plate-forme intégrée évite aux employés d'avoir à apprendre des solutions multiples et à l'équipe d'approvisionnement d'avoir à gérer une panoplie de solutions des fournisseurs. Ainsi, en adoptant une plate-forme intégrée, les professionnels de l'informatique augmentent la capacité de leur organisation à réduire les coûts, le time-to-value et la complexité, tout en maximisant la satisfaction des clients et des employés.

Selon le cabinet d'analyse HFS, la RPA est un très bon remède pour des problèmes ponctuels, mais ne fournit pas de réponse à long terme. « C'est l'automatisation intégrée qui permet de transformer l'entreprise et d'obtenir une expérience digitale de bout en bout. »

Étape 3 : Créer un centre d'excellence


Il est important pour les entreprises de créer un modèle d'exploitation autour de l'automatisation qui s'adapte à leurs activités, également connu sous le nom de Centre d'excellence pour l'automatisation intelligente. Une équipe du Centre d'excellence guide tout ce qui a trait à l'automatisation, y compris le maintien et la supervision des normes à l'échelle de l'entreprise, la formation, la gestion des fournisseurs, l'établissement de la meilleure pratique et bien d'autres aspects. Les organisations disposent également d'une certaine souplesse dans la façon dont elles structurent leur programme. Il existe trois modèles principaux :

Centralisé : Une seule équipe est responsable de la gestion et du contrôle de tous les aspects du programme.
Décentralisé : Les responsabilités relatives à l'exécution du programme d'automatisation sont réparties entre les différentes unités opérationnelles de l'entreprise.
Hybride : Certains aspects du programme d'automatisation sont gérés par une seule équipe centralisée, tandis que d'autres sont reproduits d'une unité opérationnelle à l'autre.
Il n'y a pas de « bonne » ou de « mauvaise » réponse ; le plus important est de commencer par le modèle qui a le plus de sens compte tenu de la situation actuelle d'une organisation, puis de l'adapter au besoin.

Grâce à une approche de plate-forme intégrée, les entreprises peuvent accélérer leurs initiatives de transformation numérique et commencer à travailler comme les entreprises de demain qui sont dotées d'une plate-forme numérique. Travailler comme demain apporte plusieurs avantages : une meilleure productivité, une prise de décision plus rapide, un service personnalisé aux clients et une main-d'œuvre plus autonome.