Comme tout événement planétaire, la grippe A a été abordée sous toutes ses formes sur internet : on a ainsi vu fleurir des sites pédagogiques d'information, des parodies, des vidéos, des jeux en ligne. Place maintenant au quizz de la grippe. Lancé par Loïc Étienne, médecin-urgentiste, Antoine Vial, Christophe Gareyte et Claudette Humbert-Mulas, le site www.quizz-grippe.fr, qui fait tousser le ministère de la Santé et les médecins généralistes, propose aux internautes de répondre à un questionnaire à choix multiples pour savoir si les symptômes présentés pourraient correspondre à ceux de la grippe. Le site, qui a déjà reçu quelque 240 000 visites, explique qu'il permet d'« apprécier le risque d'avoir attrapé la grippe (A ou saisonnière), de vous orienter en fonction des résultats de l'évaluation et de trouver les réponses à vos questions sur la grippe. »
Alors que les e-books ont le vent en poupe et décollent enfin, Bonnnier R&D et l'agence Berg ont imaginé ce magazine du futur Mag+.


Mag+ (video prototype footage only) from Bonnier on Vimeo.
Par décision n° 2009-1067 du 17 décembre 2009, l’ARCEP a retenu la candidature de la société Free Mobile dans le cadre de la procédure lancée le 1er août 2009 tendant à l’attribution d’une autorisation, en France métropolitaine, d’un système de téléphonie mobile de troisième génération (" 3G ").

Cet appel à candidatures s’inscrit dans la suite de ceux lancés en 2000, 2001 et 2007. Lors des deux premiers appels à candidatures, trois des quatre licences 3G avaient été attribuées (SFR et Orange France en 2001 puis Bouygues Télécom en 2002). L’appel à candidatures mené en 2007 s’étant quant à lui avéré infructueux, une nouvelle procédure pour l’attribution d’une licence portant sur 5 MHz dans la bande 2,1 GHz a été lancée le 1er août 2009 par le Gouvernement.

Un dossier de candidature a été déposé par la société Free Mobile, filiale à 100% du groupe Iliad. Conformément à la procédure prévue, la candidature de Free Mobile a été examinée par l’ARCEP en trois phases : une phase de recevabilité, qui permet de vérifier si la candidature respecte les conditions de forme requises, une phase de qualification, qui permet de vérifier si la candidature respecte les critères d’éligibilité requis pour l’attribution d’une autorisation, et une phase de sélection, qui permet d’évaluer si le contenu du dossier de candidature est suffisant au regard des critères prévus par l’appel à candidatures. L’analyse de la candidature de Free Mobile et des engagements souscrits est présentée en détail dans le compte rendu annexé à la décision n°2009-1067 rendue publique aujourd’hui. C’est au regard de l’ensemble des critères applicables que la candidature de Free mobile a été retenue.

L’arrivée de ce nouvel acteur devrait avoir un effet favorable sur la dynamique du marché de la téléphonie mobile, et, plus généralement, devrait être un facteur positif pour le développement des services de communications électroniques.

Free Mobile envisage de proposer au consommateur des offres claires et innovantes à des tarifs compétitifs de nature notamment à faciliter l’accès à l’Internet mobile.

Free Mobile prend également de nombreux engagements concernant l’accueil des opérateurs mobiles virtuels (MVNO), sur les plans commercial, contractuel et technique. Il s’engage notamment à accueillir des MVNO " complets " (" full MVNO ") sur son réseau.

Free Mobile s’engage enfin à ouvrir commercialement son réseau mobile au plus tard deux ans après la délivrance de l’autorisation et à couvrir, d’ici huit ans, au moins 90% de la population par son réseau 3G. Ainsi, dès 2012, les consommateurs verront leurs possibilités de choix élargies.

Ces nouvelles offres devraient ainsi stimuler les opérateurs existants dont la situation actuelle est pérenne et solide.

L’autorisation d’utilisation de fréquences sera délivrée par l’ARCEP à la société Free Mobile en janvier 2010. Le reliquat de fréquences dans la bande 2,1 GHz sera attribué dans le cadre d’un nouvel appel à candidatures, ouvert à tous les acteurs, qui sera lancé au premier semestre 2010. L’ARCEP prépare enfin, en vue d’un lancement au second semestre 2010, les procédures d’attribution des bandes 800 MHz et 2,6 GHz permettant le déploiement des réseaux mobiles de nouvelle génération à très haut débit.

(Communiqué de presse de l'Arcep)

Après des années d'atermoiements et de rebondissements, la France aura donc bien un 4e opérateur de téléphonie mobile. L'Autorité de régulation des communications électroniques et des postes (Arcep) a octroyé hier la 4e licence au groupe Iliad, propriétaire des fournisseurs d'accès à internet Free et Alice, et seul candidat en lice.
Pour l'Arcep et le gouvernement, l'arrivée d'un nouvel entrant - contestée par Orange, SFR et Bouygues qui ont déposé des recours devant le Conseil d'État - doit clairement faire baisser la facture mobile des Français, ce qu'espèrent aussi les associations de consommateurs. Un objectif partagé par le PDG de Free, Xavier Niel, qui depuis longtemps affirme qu'il divisera par deux la facture annuelle d'un foyer (soit 1 000 € d'économies). Free le trublion veut donc révolutionner le mobile comme il a révolutionné l'accès à internet. La box internet, le forfait tripleplay (internet, télé, téléphone fixe) à 29,90 €, c'est lui. Arrivant dans un marché très concurrentiel puisque 93 % des Français possèdent un mobile, Free compte sur sa base de 4,3 millions d'abonnés ADSL et sur sa capacité d'innovation pour proposer des forfaits à prix cassé et très orientés vers l'internet mobile, en pleine explosion. Reste que pour l'heure, Free, qui va mobiliser jusqu'à 1 milliard d'euros et promet de créer 10 000 emplois, s'engage dans une course de vitesse : bâtir en moins de deux ans un réseau mobile couvrant 25 % de la population, avec toute la problématique des antennes relais… Les premières offres de Free Mobile sont prévues à partir de l'été 2011 ; un délai dont vont profiter les 3 autres opérateurs pour toiletter leurs offres et se préparer à une guerre des prix.

Les sites internet de la SNCF souffrent, à tort ou à raison, des critiques des internautes qui les jugent malaisés et confus. Cela pourrait changer avec la refonde des sites web des activités TER de la SNCF (www.ter-sncf.com). Réalisé par SQLI, le nouveau portail « permet à l'internaute de bénéficier d'un accompagnement lors de chacune des phases de son déplacement. Avant : recherche d'itinéraires, calcul du prix. Pendant : e-services, TER Flash Trafic, alertes en cas de retard. Après : formulaire de contact, bulletin de retard imprimable. » Depuis sa mise en ligne fin octobre, le trafic sur le nouveau site qui arbore un nouveau code couleur, a fortement augmenté. « Nous sommes passés d'une moyenne de 42 000 visiteurs par jour à plus de 67 000 », explique Sylvie Bourgeois, directrice Marketing et Services de la direction du TER.


Montant de l’action : 4,5 Mds€
Equipement de la France en très haut débit : 2 Mds€
Développement des usages et contenus innovants : 2,5 Mds€

Enjeux

L’investissement dans le secteur des technologies numériques a un très fort effet de levier sur la croissance et sur l’emploi. Ainsi, sur la période allant de 2001 à 2005, l’investissement dans ce secteur a contribué à 60% de la croissance française. Cependant, cet effort d’investissement reste deux fois moindre que dans les pays les plus avancés de l’OCDE. Ce sous-investissement explique 60% de notre écart de croissance avec les Etats-Unis depuis 2000, soit un « manque à gagner » de 300.000 emplois sur les 800.000 recensés dans le secteur.
L’Europe et la France ont pris du retard en matière numérique, avec par exemple la quasi-disparition de l’industrie du logiciel en Europe et un quasi-monopole américain sur la gestion des données. De nouveaux défis sont à anticiper et présentent autant d’opportunités, comme par exemple le développement concomitant des nanotechnologies et des neurosciences qui vont révolutionner l’intelligence logicielle et le développement de l’Internet des objets. Des risques sont aussi à anticiper aussi, comme la cybercriminalité voire le cyberterrorisme, ainsi que la crise de confiance dans le numérique sur la protection des données personnelles.

Pourquoi investir ?

L’intervention de l’Etat pour financer via l’Emprunt national des dépenses d’avenir dans le secteur du numérique apparaît tout à fait légitime car les besoins potentiels de financements à long terme pour investir dans ce facteur de croissance durable sont immenses mais la crise et ses suites découragent le secteur privé d’y répondre. Pour mener les actions dans le domaine numérique, l’État va investir les sommes issues de l’Emprunt national dans un fonds national pour la société numérique, établissement public relevant du Premier ministre via le secrétariat d’État chargé de l’Economie numérique, à la gouvernance duquel seront associés les ministères partenaires, en particulier Industrie, Aménagement du territoire, Culture et Santé. Le fonds financera les deux grandes catégories d’actions : en direction des réseaux et en direction des contenus et usages.

1. Réseaux : accélérer le passage de la France au très haut débit

Le très haut débit correspond à des débits d’environ 100 mégabits/seconde, voire davantage, avec un minimum de 50 Mb/s. Ces débits ne sont accessibles que par la fibre optique ou par de nouvelles technologies hertziennes ou satellitaires très avancées. Le déploiement du très haut débit en France correspond dans la majeure partie du pays au remplacement du réseau téléphonique en cuivre par de la fibre optique. C’est un investissement national majeur destiné à mettre notre pays en 26
position d’utiliser pleinement des ressources numériques en plein développement.
Cet effort représente plusieurs dizaines milliards d’euros d’investissements à réaliser, un levier pour la compétitivité de nos entreprises et un facteur essentiel d’aménagement de nos territoires et de développement de nouveaux services innovants, tant pour les entreprises que pour les acteurs publics et les citoyens. Les réseaux à très haut débit nécessitent des règles d’intervention publique adaptées aux caractéristiques des territoires : une partie du territoire peut être équipée par le secteur privé sans intervention publique ; une autre, correspondant aux zones de moyenne densité, sans subventions mais avec un co-investissement public pour accélérer et maximiser le déploiement ; les parties les moins denses du territoire ne peuvent s’équiper qu’à l’aide de subventions publiques.
Le fonds national pour la société numérique réservera 2 milliards d’euros au très haut débit à trois usages :
1) à des prêts ou garanties d’emprunt à ces opérateurs en vue de favoriser un investissement mutualisé entre acteurs, afin que l’engagement public puisse accélérer et optimiser l’investissement des opérateurs privés ;
2) à des subventions aux projets de couverture dans les zones peu denses, en partenariat avec les collectivités locales ;
3) à bâtir un partenariat public/privé (ou concession de service public) pour déployer un satellite qui apportera le très haut débit d’ici 5 ans à 750.000 foyers en zone rurale.
Ces fonds se joindront aux 750 M€ de co-investissements en fonds propres avec les opérateurs qui déploieront les réseaux, à réunir à l’initiative de la Caisse des dépôts et consignations, au titre du volet numérique du plan de relance. L’objectif est d’atteindre en dix ans une couverture en très haut débit de 70% de la population.

2. Développer les services, usages et contenus numériques innovants

La viabilité économique de cette nouvelle infrastructure très haut débit dépend des nouveaux services, usages et contenus numériques qu’elle permettra de faire émerger. Le fonds national de numérisation de la société mentionné ci-dessus sera doté de 2,5 milliards d’euros supplémentaires pour favoriser leur développement.
Un changement profond dans l’organisation des systèmes d’information est en marche, avec le développement de l’informatique en nuage. Le développement de ces infrastructures présente des enjeux majeurs en termes de compétitivité, de souveraineté et de développement durable. Elles permettront une meilleure utilisation des ressources informatiques au sens large (infrastructures, serveurs d’hébergement, plateformes de services et de location de logiciels).
Une partie des ressources du fonds sera mobilisée pour investir, via un partenariat public-privé, dans de grandes centrales numériques de calcul et de stockage, dans le contexte de l’émergence de l’informatique en nuage (« cloud computing »), de manière à développer rapidement une alternative française et européenne dans un domaine en explosion aujourd’hui largement dominé par des acteurs nordaméricains.
Les technologies de base du numérique irriguent l’ensemble des secteurs industriels et leur maîtrise est critique pour l’avenir industriel de notre pays. La France et l’Europe disposent en la matière d’atouts considérables, qu’il est indispensable de maintenir et de renforcer. Dans cette perspective, le fonds sera mobilisé pour consolider, dans des partenariats public-privé de recherche et développement, la maîtrise des technologies de base du numérique, aux applications multiples dans le domaine des télécommunications, de l’informatique, de l’énergie et des transports.
Le fonds sera également mobilisé pour financer sous forme d’avances remboursables des projets partenariaux public-privé de recherche et de démonstration, visant le développement de logiciels, d’usages et de contenus numériques innovants, en particulier dans le domaine de l’e-santé et des réseaux intelligents pour le transport et l’énergie.
Une partie du fonds sera aussi consacrée au co-financement de la numérisation des contenus culturels, dans une logique de co-investissement et de partenariat publicprivé, avec le souci de maximiser l’effet de levier des fonds publics et d’utiliser les compétences du secteur privé dans l’indexation et la mise à disposition des contenus auprès du grand public.
Des plateformes collaboratives de recherche et d’expérimentations de nouveaux usages numériques, notamment celles destinées à développer la dynamique et le rayonnement des pôles de compétitivité impliqués sur ces thématiques, pourront également bénéficier d’un co-financement par le fonds.

(Extrait du discours de Nicolas Sarkozy du 14 décembre 2009) 

Il y a un an, Google avait contribué à la découverte d'une forêt inconnue au Mozambique. Cette fois-ci, le moteur de recherche fait vibrer notre fibre écolo. En pleine conférence de Copenhague, Google vient de mettre au point un outil pour surveiller la déforestation. En combinant l'énorme base de donnée d'images satellites de Google Earth et sa capacité de calcul gigantesque (cloud computing), Google permet de suivre l'évolution de la déforestation à travers la planète. Les scientifiques disposent là d'un outil précieux pour étudier plus facilement le phénomène de déforestation ; mais les autorités locales sont également intéressées pour prendre des mesures d'urgence ou découvrir des déforestations sauvages. Soutenu par une multitude d'organismes de recherches, le nouvel outil de Google sera mis gratuitement à disposition du public l'an prochain.
Plus d'informations sur le blog officiel de Google.

Le débat sur les risques d'exposition aux radiofréquences des antennes relais de téléphonie mobile vient de prendre une tournure inattendue. Alors que l'on pensait que les opérateurs d'un côté et les associations de consommateurs de l'autre étaient irréconciliables sur les seuils de puissance des antennes, Bouygues Télécom s'est dit prêt hier à ne pas franchir le seuil de 6 volts par mètres dans les lieux de vie. La proposition a été émise dans un entretien au Figaro par Olivier Roussat, directeur général de Bouygues Télécom, qui a rappelé que ce seuil de 6V/m était en vigueur en Italie.
Cette initiative intervient alors que le Grenelle des ondes, lancé au printemps, vient de prendre la semaine dernière une première initiative. Le Comité opérationnel d'expérimentations sur les antennes relais (COMOP), chargé de conduire les études et expérimentations sur les ondes électromagnétiques aux alentours des antennes relais, a, en effet, présenté la liste des communes retenues pour mener plusieurs expérimentations (lire ci-dessous).
Pour Nathalie Kociusko-Morizet, secrétaire d'État à l'économie numérique, la proposition de Bouygues Télécom est « un bon signal » qui peut entraîner les autres opérateurs dans ce sens. Mais « six volts, c'est encore beaucoup. Il faut progresser », a estimé la ministre. Sur la même… longueur d'ondes, les associations Priartém et Agir pour l'environnement estiment elles aussi qu'il faut aller beaucoup plus loin que le seuil proposé par Bouygues, « un engagement virtuel » qui toucherait « moins de 1 % des antennes » de l'opérateur… Les deux associations souhaiteraient idéalement une valeur limite de 0,6V/m et plaident en tout cas pour voir reprise la proposition de l'agence française de sécurité sanitaire de l'environnement (Afsset) d'imposer aux opérateurs d'émettre et d'exposer au niveau le plus faible techniquement possible, soit en deça d'un volt par mètre.

Plus d'antennes ?

Reste que l'abaissement de la puissance des antennes relais ne va pas sans poser problème. Les opérateurs ont, en effet, des obligations contractuelles avec l'État, pour couvrir la population en téléphonie mobile. « En 2011, l'Arcep nous demande de couvrir 90 % de la population en 3G », rappelait récemment Cyrille Frantz Honegger, directeur des relations régionales de SFR sud ouest. Et l'explosion de l'internet mobile à partir des mini-PC ou des smartphones comme l'iPhone font que les utilisateurs veulent être parfaitement connectés, partout en France
Si la baisse de puissances antennes relais était généralisée, pour conserver une bonne qualité de réception, notamment à l'intérieur des habitations, les opérateurs seraient conduits à… multiplier les antennes.
Le juste équilibre reste donc encore à trouver.


3G : le défi des opérateurs
Noël 2009 sera connecté ou ne sera pas. Les opérateurs s'attendent, en effet, à une explosion de la demande pour l'internet mobile soutenue à la fois par les ventes de mini-ordinateurs netbooks associés à une clé USB 3G et par les smartphones, ces téléphones intelligents dont le fer de lance est le mobile d'Apple, l'iPhone. Selon le cabinet d'étude Forrester, d'ici 2014, près de 40 % des Européens utiliseront l'internet sur mobile, et, en France, le taux de pénétration de l'internet mobile atteindra 41 % à cette date, contre 16 % aujourd'hui. Pour faire face aux obligations réglementaires (90 % de la population couverte en 3G en 2011) sur lesquelles ils accusent du retard, à la demande des consommateurs et afin d'éviter que les réseaux ne saturent, les opérateurs doivent massivement investir dans de nouveaux équipements. « C'est un enjeu commercial et réglementaire qui ne passe pas par de nouveaux sites d'implantation mais par le changement de matériel », explique Philippe Cometti, responsable environnement de SFR Sud ouest. Pas de nouvelles antennes à implanter donc mais le changement de technologie pour passer de la 2G à la 3G.

Tests à Lavelanet et Couffouleux
À la suite du Grenelle des ondes du printemps dernier, la décision a été prise d'étudier une réduction de l'exposition aux ondes électromagnétiques aux alentours des antennes-relais. 238 communes se sont porté candidates en septembre dernier. Dans le Sud Ouest, trois communes ont été retenues pour des expérimentations sur l'exposition aux ondes avec une baisse de puissance des antennes : il s'agit de La Rochelle en Charente-Maritime, de Couffouleux dans le Tarn et de Lavelanet en Ariège. Deux communes ont été choisies pour des expérimentations sur de nouveaux protocoles de concertation : Pessac en Gironde et Bayonne dans les Pyrénées-Atlantiques.
Les travaux de modélisation débuteront en janvier 2010 et les premiers résultats sur les deux types d'expérimentations seront disponibles courant du deuxième trimestre de l'année prochaine.
À noter que sur la concertation, SFR a mené dernièrement une initiative originale pour l'installation de trois nouvelles antennes relais à Toulouse, Béziers et Rennes. Les personnes habitant dans un rayon de 100 mètres autour de l'emplacement de la future antenne ont reçu dans leur boîte à lettres un courrier d'information - un millier de lettres expédiées à Toulouse. Un site internet dédié par antenne a été développé pour donner tous les détails aux riverains et des permanences dans les quartiers concernés ont été organisées par SFR qui était également joignable par une adresse e-mail spécifique.

(Photo : Une antenne relais GSM sur un toit à Paris, France Copyright © 2006 ~Pyb)

Dans la foulée de la modernisation de son site internet dédié au grand public et de la création de profils professionnels (dont un site dédié aux enseignants), le Cnes propose désormais un site internet pour les jeunes. Faisant une large place à l'illustration et la vidéo, le site s'adresse aux juniors (8 à 12 ans), aux collégiens ou lycéen (12 à 18 ans), et aux étudiants. Véritable portail d'information sur l'espace, le nouveau site est également la vitrine des projets éducatifs proposés par son service « Jeunesse et acteurs de l'Éducation ». Comprendre la pesanteur, les nouveaux matériaux, les réactions de la faune et de la folre dans l'espace, le fonctionnement de la balise Argos ou les exoplanètes sont quelques-uns des dossiers déjà en ligne. À découvrir sur www.cnes-jeunes.fr.

Longtemps objet de science fiction avant de devenir un véritable fiasco industriel dans les années 90, le livre électronique (ou e-reader) est de retour dans un contexte nouveau, celui de la numérisation de tous les contenus (musique, vidéo, écrit) et leur convergence sur de multiples supports. Face au boom des smartphones de type iPhone et celui des mini-ordinateurs netbooks, les nouveaux modèles de livres électroniques essaient de se faire une place avec de nouveaux arguments. Pour cela, ils jouent sur deux tableaux : celui du matériel et celui du logiciel.

Utilisant toujours l'affichage noir et blanc à base d'encre électronique, gage d'une excellente autonomie, les nouveaux lecteurs ultralégers permettent de stoker des centaines de livres téléchargés sur internet, par Wifi ou via les réseaux de téléphonie mobile. Certains modèles sont dotés d'un clavier pour surligner tel ou tel passage que l'on pourra ensuite réutiliser sur son ordinateur après avoir synchronisé les deux appareils. Idéal pour les professionnels de l'écrit, les étudiants et pourquoi pas les écoliers qui gagneraient à troquer leurs lourds manuels scolaires contre un seul e-book.
Côté logiciel ensuite, la révolution est en marche avec des méthodes de commercialisation agressives qui inquiètent en France les libraires, très attachés au prix unique du livre, même si le catalogue de livres électroniques en français est encore modeste. Si des partenariats se nouent entre des libraires et des constructeurs (comme la Fnac avec Sony), la dynamique vient surtout d'acteurs d'internet bien installés : Amazon et Google. Le premier commercialise un lecteur, le Kindle, qui permet d'acheter des livres à prix cassés et qui truste déjà 10 % des ventes de livres en Amérique du Nord. Le second numérise à vitesse grand V des milliers d'ouvrages de par le monde. Dans cette guerre du livre électronique, une course de vitesse est engagée par tous les acteurs pour imposer un modèle de commercialisation (vente au livre ou forfait mensuel) et un format de lecture. Car il manque encore aux e-books ce qui a permis de faire décoller la musique numérique : un format universel. Mais la tendance est là : il devrait se vendre 18 millions d'e-books en 2012 dans le monde, soit un rythme de croissance annuel de 161 %, pour un marché de 193 millions d'euros.


Plusieurs modèles prêts pour Noël
Le Cybook Opus de Booken pèse 150 g. Compatible avec plusieurs formats de fichiers dont le PDF il dispose d'un détecteur de mouvements pour orienter son écran de 5''. 250 € ou 300 € avec 75 livres et une carte de 2 Go.
Le PRS-505, 1er modèle de Sony de 8 mm d'épaisseur pour 280 g, peut stocker jusqu'à 160 e-books, voire 13 000 avec une carte mémoire supplémentaire. Le modèle Touch ajoute une fonction tactile à l'écran 6''. Peut afficher des PDF et servir de baladeur. 300 € avec 100 ouvrages offerts.


Christine Albanel en mission contre le piratage
Qui dit livres numérisés dit fichiers facilement copiables et donc piratables… Pour éviter de vivre les déboires de l'industrie musicale, le secteur de l'édition se mobilise pour faire entendre sa voix, notamment face au géant Google. Dans ce contexte, Christine Albanel, ex-ministre de la Culture, vient de se voir confier une mission par le Premier ministre sur le livre numérique et la lutte contre le piratage des contenus dans l'édition. Mme Albanel doit sensibiliser la Commission européenne et les ministres européens de la Culture aux « interrogations » suscitées par « les propositions de numérisation faites aux bibliothèques publiques par des entreprises comme Google. » Le second volet de la mission traite de l'adaptation de l'édition à la lutte contre le piratage. Le troisième volet consistera à faire émerger, comme pour la musique, une offre légale de téléchargement. Remise du rapport en avril 2010.

Le Kindle d'Amazon

La nouvelle organisation de France 3 fait des vagues à Toulouse qui doit perdre l'installation de la nouvelle direction régionale au profit de sa rivale de toujours Bordeaux.
Le 4 janvier prochain, les 24 rédactions régionales deviendront, en effet, 24 « antennes de proximité » qui produiront informations et programmes, mais développeront également des web TV sur internet. Ces 24 antennes ne dépendront plus des 13 directions régionales actuelles mais de quatre grands « pôles de gouvernance. »
France Télévisions a choisi d'installer le pôle Sud-Ouest à Bordeaux au lieu de Toulouse, pour diriger les régions Languedoc-Roussillon, Midi-Pyrénées, Limousin, Aquitaine et Poitou-Charentes. Une décision déclenchant la colère des élus et l'inquiétude des personnels.
« Je déplore cette décision prise sans concertation, alors que tout laissait entendre depuis plusieurs mois qu'il serait effectivement implanté à Toulouse », a regretté Martin Malvy, président de la Région Midi-Pyrénées. « Je crains qu'à terme Toulouse, la Haute-Garonne et la région Midi-Pyrénées ne soient en fait privées des infrastructures médiatiques de proximité nécessaires à leur rayonnement », estime de son côté Pierre Izard, président du conseil général de la Haute-Garonne.
Le député-maire de Toulouse, Pierre Cohen, affiche lui aussi son incompréhension. Remarquant qu'une implantation ailleurs que dans la Ville Rose va occasionner « plus de déplacements inutiles, énergivores et dangereux entre les antennes et la direction du pôle », l'élu rappelle que « Toulouse bénéficie d'un équipement immobilier inégalé, avec des locaux disponibles et un studio de 450 m2 parmi les plus grands de France. »
« Nous déplorons qu'aucune concertation n'ait été entamée, ni avec les personnels des différents sites, ni avec les collectivités territoriales. Tout autre choix que Toulouse tournerait le dos à l'efficacité et aux possibilités de développement de la télévision régionale publique dans le Sud-Ouest » analyse Pierre Cohen, qui estime que « le choix de Bordeaux par la Présidence de France Télévisions n'a obéi qu'à des considérations politiciennes. » Une analyse partagée par Michel Pech, délégué du personnel des journalistes CGT. « Ce qui nous met en colère, c'est que toutes les conditions objectives allaient dans le sens de Toulouse, si on a choisi Bordeaux c'est strictement politique, on a pris une ville UMP plutôt que PS, Juppé plutôt que Cohen », a-t-il estimé. Hier 80 des 260 salariés de France 3 à Toulouse étaient en assemblée générale, inquiets du possible transfert de 25 personnes vers Bordeaux.

La collecte et le recyclage des matériels électroniques (ordinateurs, télévisions, téléphones mobiles) restent encore peu perforants et complexes pour le grand public. Saluons donc l'initiative Fonebak, lancée par Regenersis, leader européen de la collecte, du recyclage et de la remise à niveau des téléphones portables. Sur le site inernet (www.fonebak.fr), les particuliers et les entreprises peuvent évaluer la valeur de reprise des vieux mobiles et choisir d'dêtre bénéficiaire du montant de la reprise ou de réailse un don au profit d'une œuvre cartative. Pour la 5e année consécitive, Fonebak est partenaire du Téléthon au travers de l'opération «Videz vos tiroirs.» En 2008, 80000 téléphones usagés ont été collectés, ce qui a permis de réunir 500000€ reversés au Téléthon. L'objectif de la campagne 2009 est de dépasser les 100000 téléphones collectés.

La planète rouge n'en finit pas de fasciner et, en attendant que l'homme y pose son pied, les projets ne manquent pas pour la faire découvrir. Si Google propose de visualiser des prises de vue étonnantes (www.google.com/mars), la Nasa va beaucoup plus loin et propose aux internautes de devenir citoyens de Mars. L'objectif de l'agence spatiale américaine - à qui l'on doit déjà une superbe application pour l'iPhone - est multiple : faire du grand public un soutien pour des programmes spatiaux toujours très coûteux, faire œuvre de pédagogie et mettre à contribution les internautes. En effet, la Nasa espère que les internautes l'aideront à rendre plus précises les cartes de la planète à partir de l'analyse des milliers de données récoltées notamment par Global Mars Surveyor. Une initiative ludique et utile à la recherche. (http://beamartian.jpl.nasa.gov/).

Quand on est le ministre le plus connecté du gouvernement, on ne se refait pas. Hier matin c'est donc sur son compte Twitter (@nk_m) que Nathalie Kociusko-Morizet a annoncé, au sortir de la réunion sur le Grand Emprunt, que celui-ci allait débloquer 4 milliards d'euros pour l'économie numérique.

Venue ce jeudi à Montpellier pour conclure la 31e conférence internationale de l'Institut de l'audiovisuel et des communications en Europe (Idate), la secrétaire d'Etat chargée de la Prospective et du développement de l'économie numérique, a détaillé cette enveloppe : "2 milliards d'euros iront aux infrastructures (fibre, satellite...) et 2 milliards d'euros aux usages (e-santé, e-éducation, numérisation)." La ministre a insisté sur les usages insuffisamment pris en compte selon elle. "Je me sens plus en charge de la société numérique que du développement de l'économie numérique."
Les 4 milliards seront gérés par une nouvelle Agence du numérique, un organisme "de moyens et de projets."

Fibre : 3 zones

Concernant le déploiement de la fibre optique (FTTH), la ministre a indiqué que 3 zones avaient été définies. La zone 1 concerne les parties à forte densité (grandes villes) où seuls les opérateurs interviennent pour construire le réseau. La zone 2 puis la zone 3 sont celles moyennement et peu peuplées. Sur ces deux dernières, la construction du réseau sera co-financée par les collectivités territoriales, l'Etat via la Caisse des Dépôts et les opérateurs. Les zones 2 et 3 sont éligibles aux 2 milliards d'euros "infrastructures" du Grand Emprunt.
Sur le contenu susceptible d'être véhiculé par les réseaux fibre, des appels à projets seront lancés et les PME du logiciel pourront être soutenues par le volet PME du Grand Emprunt.

Création musicale

Concernant la création musicale, NKM veut "faire en sorte qu'Hadopi ne serve à rien et que tout le monde aille vers l'offre légale." La ministre ne manque d'ailleurs pas d'idée pour que l'industrie musicale et les consommateurs adoptent de nouveaux comportements sur la toile. Rapprochement de l'industrie d'internet, mise en place d'offres légales attractives, meilleure présence française à l'international, possibilité pour les sites musicaux d'avoir le statut de radio-diffuseur, création d'un guichet unique pour la gestion des droits, mutualisation des formats des éditeurs pour faire face aux standards US, etc.
La proposition la plus audacieuse et qui séduira les partisans de la licence globale : une déduction fiscale por un abonnement annuel à un site musical légal !

Droit à l'oubli

Sur la protection et l'effacement des donnes personnelles, NKM se veut pragmatique. "On n'arrivera pas à se mettre d'accord sur ce que c'est qu'une donnée personnelle. Selon les cultures, les pays, la notion change. En revanche, toutes les cultures intègrent le besoin d'oublier", a expliqué la ministre. Et si "un accord international sur le droit à l'oubli est illusoire", NKM rappelle que le Forum sur la gouvernance d'internet de Sharm El-Cheikh reste favorable à l'idée, et que 71% des internautes sont inquiets sur le devenir des données qu'ils ont confiées aux grands acteurs de l'internet, ces derniers se livrant d'ailleurs bataille sur la qualité de gestion de ces données.

La ministre propose donc une réflexion nationale dont les propositions pourraient être portées à l'international.

Basculement numérique : éviter l'écran noir

NKM est ensuite revenue sur le basculement de la télé analogique vers le tout numérique dont la date butoir est fixée au 30 novembre 2011 ; au lendemain d'un nouveau test avant le basculement de l'Alsace en février prochain. "On s'organise pour éviter l'écran noir", assure la ministre qui a rappelé le fonds spécial de 277 millions d'euros débloqué pour aider les ménages les plus faibles à passer le cap ; l'augmentation de la puissance des émetteurs TNT pour couvrir davantage de population. NKM a également annoncé une rallonge de crédit pour les foyers qui recevaient la télé par antenne rateau et qui devraient s'équiper lors du basculement.

Conseil européen des télécoms "déprimant"

Pour NKM, au niveau européen, "la régulation c'est bien, s'occuper de la société numérique c'est mieux." La ministre qui trouve le conseil européen des téécoms trop "déprimant", estime que l'UE ne se penche pas assez sur les usages.

Philippe Rioux
Jean-Ludovic Silicani, président de l'Autorité de régulation des communications électroniques et des postes (Arcep) est intervenu ce jeudi à Montpellier dans le cadre de la 31e conférence internationale de l'Institut de l'audiovisuel et des communications en Europe (Idate).

En référence au thème choisi cette année - les plateformes ouvertes - M. Silicani a d'emblée souligné que "la méthode même de régulation est fondée sur l'ouverture." Comme en réponse à Michel Combes (CEO de Vodafone Europe) qui redoutait une trop grande intervention du régulateur, le président a rappelé qu'il agissait pour obtenir une concurrence non pas maximale mais optimale offrant pour les clients un service de qualité à prix raisonnable et pour les opérateurs la possibilité de dégager des marges suffisantes pour innover.

4e licence et 3G

Rappelant que sur le fixe, l'ouverture régulée à la concurrence avait été "un réel succès" avec 7 millions d'abonnés haut débit en dégroupage (sur 19 millions), M. Silicani a justifié la 4e licence. "J'aurai aimé qu'il y ait plus de candidats. C'est bien la preuve que la licence n'a pas été bradée", a-t-il observé. "Le 4e opérateur ne perturbera pas les autres ; et en cas de guerre des prix, ce sera le premier touché", estime le patron de l'Arcep, qui a indiqué que le dossier de candidature de Free était en cours d'examen.

Enfin sur le mobile, Jean-Ludovic Silicani, a annoncé que la mutualisation des sites 3G allait donner lieu à un accord d'ici la fin de l'année.

Fibre optique : Sarkozy va intervenir

Concernant le déploiement des réseaux de fibre optique (FTTH) qui a connu ces derniers mois des bisbilles technologiques notamment entre Free et d'autres FAI, Jean-Ludovic Silicani souhaite un réseau "ouvert et neutre technologiquement." Pour rappel la FTTH concerne 0,2% des abonnés haut débit en France contre 48% au Japon...

Pour le déploiement dans les zones denses (5 millions de foyers), Jean-Ludovic Silicani a annoncé l'émergence d'un cadre juridique d'ici la fin de l'année.

Le président de l'Arcep a également assuré que pour éviter toute fracture numérique, le déploiement de la fibre se ferait partout sur le territoire. De fait, le Grand emprunt pourrait être mis à contribution pour financer des infrastructures très coûteuses.

Nicolas Sarkozy devrait présenter d'ici quelques mois le plan national de déploiement de la fibre.

Neutralité du net : un colloque en 2010

Si certains se demandent si la net neutrality est un problème purement américain, l'Arcep entend bien se saisir du dossier. Une réflexion est ainsi engagée sur le degré d'ingérence des opérateurs dans les contenus ; sur la solidité du trafic mis à mal par les énormes besoin en bande passante de la vidéo ; et sur le partage de la valeur.

L'Arcep a engagé sa réflexion autour de la non-discrimination (un opérateur ne doit pas favoriser tel ou tel contenu) et la transparence. Au terme de cette réflexion en interne, l'Arcep va lancer une consultation publique d'ici la fin 2009. Un colloque doit conclure cette phase de réflexion au printemps 2010

Certains des téléviseurs haut de gamme qui seront au pied du sapin à Noël cette année seront capables de se connecter à internet. Une tendance de fond qui va s'accélérer et se démocratiser dans les mois à venir.

La 31e conférence internationale de l'Institut de l'audiovisuel et des communications en Europe (Idate), qui se déroule Montpellier, a expliqué que le basculement vers le numérique, la migration vers internet de l'industrie télé était engagé, après celui de la musique ou de l'écrit.

Pour Gilles Fontaine, de l'Idate, "la télé connectée est l'une des brique de cette nouvelle filière de distribution vers internet. Tout est réuni pour que la migration vers internet s'opère." Et l'expert de pointer trois facteurs :
- l'usage de la consommation se développe (même s'il s'agit de contenu amateur) ;
- l'industria adopte une stratégie concordante (constructeurs de téléviseurs, d'ordinateurs, portails web) ;
- l'augmentation des débit d'internet permet ce développpement de la télé connectée.

Reste le contenu. "Le paysage est en formation et il y a déjà des services comme Hulu ou la VOD (vidéo à la demande). Mais là encore va se poser la question de la monétisation des contenus, qui peut passer par du couponing, des abonnements, etc.

Quoi qu'il en soit, les perspectives de développement sont forte : 40% des foyers seront en mesure d'avoir une télé connectée en 2012, notamment via des terminaux tiers (consoles).


L'exemple de Yahoo!


Le portail internet Yahoo! est l'un des pionniers de la télé connectée avec Yahoo! connected TV. "Yahoo! veut étendre son expérience personnalisée du mobile à la télé", assure Russ Shafer, senior director chez Yahoo! en charge de la télé connectée, "une complémentarité qui répond à la demande du consommateur."

Pour lancer sa télé connectée, Yahoo! mise sur sa plateforme ouverte de Widgets, initiée il y a 4 ans, et sur un partenariat avec des constructeurs. Parmi ces derniers, on compte Samsung, Sony, LG, Vizio et Toshiba.

Sur les nouveaux télévisieurs, une interface simple permet d'accéder à des Widgets récupérant du contenu internet : de la VOD, des informations, du sport, du divertissement, du shopping, des réseaux sociaux (Facebook, Twitter...), des jeux, de la musique, du contenu pour enfants mais aussi des sondages ou de la visioconférence. Autant dire qu'en France les acteurs du tripleplay ont peut-être des soucis à se faire pour la partie télé de leurs offres d'abonnement ADSL...

Actuellement plus de 3000 développeurs planchent sur ces Widgets qui rendent la télévision réellement interactive. Ainsi, en suivant un match de baseball, on peut obtenir des infos sur le match, les équipes, etc.

Des choses que l'on pouvait certes faire avec un ordinateur doté d'un tuner ; mais la télé connectée apporte une nouvelle expérience interactive plus simple et beaucoup plus confortable.


La 31e conférence internationale de l'Institut de l'audiovisuel et des communications en Europe (Idate), le DigiWorld Summit 2009, qui s'est ouverte ce mercredi 18 novembre au Corum de Montpellier, a dévoloppé cet après-midi tous les aspects des plateformes ouvertes à travers plusieurs séminaires : brodband, mobile, Green ICT, jeux vidéos, policy, santé et média.

Concernant ce dernier, une table ronde autour des services web innovants a réuni Jonathan Benassaya, co-fondateur de Deezer, Frédéric Sitterlé, fondateur de The Skreenhouse Factory et MySkreen, Rémi Tereszkiewicz, de Video Futur Entertainment Group et Bertrand Pecquerie, directeur du World Editors Forum ; soit des représentants de la musique, de la vidéo et de la presse écrite.

De la vidéo personnalisée à la télé à la carte

Concernant la vidéo, bousculée par un piratage endémique et une offre d'accès facile aux contenus légaux encore trop légère, c'est la notion de personnalisation qui est apparue comme la tendance. Personnalisation qui s'appuie sur la VOD (video on demand) dont la France est l'un des pays les plus consommateurs en Europe.
Alors que Video Futur se penche sur l'élaboration de chaînes thématiques conçues à partir de la VOD sur internet, Skreenhouse booste de la VOD de documentaires (après le rachat de Vodeo.tv) et a conçu un portail de VOD MySkreen. Dans les deux cas, la simplicité d'accès et tarifaire est mise en avant.

Comment monétiser la musique ?

Concernant la musique, Jonathan Benassaya surfe sur le succès de Deezer (Deezer Premium a été lancé récemment à 9,90/mois) mais tout le problème réside dans la monétisation : "Comment monétiser les 7 millions de visiteurs uniques ?"

La presse à la croisée des chemins

Reste le secteur le plus touché face aux nouvelles innovations d'internet : celui de la presse traditionnelle. "C'est une adaptation dans la douleur, mais l'innovation est vitale. Il faut collaborer ou mourir" estime Bertrand Pecquerie, citant les 90 journaux qui ont mis la clé sous la porte en un an aux Etats-Unis.

M. Pecquerie analyse le secteur comme à un tournant. "Le XXe siècle aura été celui des mass médias ; le XXIe siècle sera celui de la personnalisation."
C'est cette personnalisation qui a été mal négociée, selon lui, par les titres de presse. "L'offre n'est pas adaptée. Les acteurs ne sont pas centrés sur les consommateurs."
Pour M. Pecquerie, il aurait fallu prendre trois initiatives :
- que les titres de presse (Libé, Le Figaro, Le Monde, la PQR) s'allient sur une plateforme à même de livrer aux lecteurs, sur un thème donné, le maximum d'articles ;
- mieux prendre en compte le contenu généré par les utilisateurs UGC
- utiliser les outils de type e-reader pour reconquérir les 18-24 ans qui délaissent la presse traditionnelle.

Bertrand Pecquerie estime désormais, ce n'est plus l'augmentation du trafic de l'audience qui importe mais la monétisation de ce dont les titres de presse disposent. Cela passe par la création de sites spécialisés payant auprès d'une audience qualifiée. "On assiste à une inversion qualité/quantité" estime le spécialiste.

Les Etats-Unis sont le pays invité de la 31e conférence internationale de l'Institut de l'audiovisuel et des communications en Europe (Idate) qui s'est ouverte mercredi 18 novembre à Montpellier. Le représentant de l'administration de Barack Obama, Steven W. Lett, du Département d'Etat, chargé de l'internet (Deputy United States Coordinator for International Communications and Information Policy) a plaidé pour "une collaboration renforcée avec les pays en voie de développement" ; s'inscrivant ainsi dans les propos tenus par le président américain lors de sa visite en Chine qui

M. Lett a d'ailleurs indiqué que que la secrétaire d'Etat Hillary Clinton venait de nommer trois envoyés scientifiques et technologiques qui vont se déplacer en Afrique, au Moyen-Orient et en Asie du sud est afin de monter et d'appuyer des projets innovants autour d'internet.

Plusieurs projets sont d'ores et déjà en cours comme ceux financés par la Millenium Challenge corporation (MCC). Cet organisme a financé pour 20M$ au Ghana l'informatisation des banques agricoles ou pour 9,5M$ au Lesotho la mise en place d'une carte d'identité biométrique.

Surtout, M. Lett a mis en exergue l'opération One Laptop per Child (OLPC), c'est-à-dire un ordinateur portable pour chaque enfant. "Un million d'enfants dans 31 pays ont reçu un ordinateur et le X01 a inspiré d'autres sociétés. Ceci a fait émerger une nouvelle catégorie d'ordinateur à bas coût. La réussite commerciale dans des pays en développement est entousiasmante", a assuré le représentant de Barack Obama.








La 31e conférence internationale de l'Institut de l'audiovisuel et des communications en Europe (Idate), le DigiWorld Summit 2009 s'est ouverte ce mercredi 18 novembre au Corum de Montpellier. L'occasion "de prendre le pouls de l'internet, des télécoms, de la télévision et de regarder le futur", a expliqué Yves Gassot, le directeur de l'Institut. Après le Japon, la Chine, l'Inde et la Corée du Sud, les Etats-Unis sont le pays invité cette année pour apporter leur expérience sur la stratégie d'ouverture, le thème de la conférence étant "open innovation, open platforms"

Cette ouverture du secteur apparaît comme un fort enjeux de développement, selon Francis Lorents, le président de l'Idate. "Le vrai sujet, c'est l'innovation dans les réseaux, l'internet et les TIC", estime-t-il en mettant en avant d'une part le cloud computing, l'internet mobile et celui des objets ; et d'autre part l'iphone, Google et Twitter. "L'innovation est tirée par le consommateur : l'accès à l'innovation s'est banalisé et on voit la constitution d'écosystèmes fondés sur la collaboration organisée" explique M. Lorentz.

Soulignant combien l'Europe devait miser sur l'enseignement supérieur et renforcer la part du PNB européen consacré à la Recherche et développement, Francis Lorentz a dressé les défis à venir : faire d'internet le système nerveux du cadre de vie et de la performance économique.

Ce qui suppose aussi "de faire évoluer l'internet lui-même."

Les services de géolocalisation sur les téléphones mobiles intelligents de type iPhone connaissent un succès fulgurant au fur et à mesure que se développe l'internet mobile. On connaît bien sûr Google Maps ou encore Around Me (qui permet de trouver banque, parking ou restaurant autour de l'endroit où l'on se trouve). Selon le Top 25 des applications iPhone publié sur l'App Store, l'application de géolocalisation de Mappy est devenue « la première application gratuite la plus téléchargée en France. Elle se place également en tête des téléchargements de la catégorie Navigation ». L'application permet notamment de retrouver sur son portable tous les services à succès du web : navigation, feuille de route pour suivre les étapes d'un itinéraire, affichage de la photo de façade de l'adresse recherchée. À voir sur http://www.mappy.fr/.

Cette semaine, 5es rencontres nationales du e-tourisme à Toulouse et conférence de l'Idate à Montpellier.

Aujourd'hui et demain à l'espace de congrès Toulouse-Labège se tiennent les 5es rencontres nationales du e-tourisme institutionnel avec le Québec comme invité d'honneur. Organisées par la Région Midi-Pyrénées et son agence pour le développement de la société de l'information (Ardesi), elles constituent un rendez-vous désormais incontournable pour tous les comités départementaux et régionaux du tourisme, les offices de tourisme et syndicats d'initiatives (OTSI) de la France entière.

Alors que le dernier baromètre du e-tourisme en France montre que 45 % des Français ont préparé leur séjour sur internet en 2008 et que le e-tourisme pèse 7 milliards d'euros (30 % du e-commerce), les congressistes - quelque 850 personnes attendues, un record - vont partager leurs expériences et plancher sur différents outils du web 2.0 pour cerner le « touristonaute » de demain. Réseaux sociaux comme Facebook, Twitter, FlickR, Tumblr, etc. mais aussi partage de vidéos, services géolocalisés ou sur téléphones mobiles sont ainsi au programme de conférences et d'ateliers durant ces deux jours.

Les institutionnels du tourisme ont résolument pris le virage d'internet. En Midi-Pyrénées, par exemple, 58 % des 276 OTSI ont un site internet, selon le dernier diagnostic 2008 de la Société de l'information réalisée par l'Ardesi. L'Aveyron et le lot présentaient alors la plus forte hausse (+6 points entre 2007 et 2008).

Dans la même dynamique de développement sur internet, la campagne Grands Sites de Midi-Pyrénées, orchestrée par la Région, a été particulièrement bien relayée sur les réseaux sociaux.

Un jury de blogueurs décernera enfin 5 trophées récompensant des initiatives innovantes.

@ Plus d'infos sur http://www.etourisme-ardesi.fr/

Vers une Toile plus ouverte
L'Institut de l'audiovisuel et des télécommunications en Europe (Idate) spécialisée depuis 1977 dans l'analyse stratégique concernant l'industrie des médias, de l'informatique et des télécommunications organise mercredi 18 et jeudi 19 novembre à Montpellier sa 31e conférence internationale. Après la Corée du Sud l'an passé, les États-Unis sont le pays invité d'honneur de ce DigiWorld Summit, qui va plancher sur l'internet « ouvert » (plateformes, innovations, etc.). Comment les acteurs des réseaux sociaux gèrent-ils l'ouverture ? Quel impact de l'ouverture sur le web, le mobile, etc. Quels sont les nouveaux modèles de concurrence ? Faut-il légiférer pour assurer la neutralité de l'Internet ? Autant de questions qui seront débattues. Nathalie Kociusko-Morizet, secrétaire d'État à l'économie numérique conclura le sommet.
@ Plus d'infos sur http://www.digiworldsummit.com/

Philippe Thorel est président de la société WMI et chargé de cours en Master à l’Université d’Evry. Il a été témoin et acteur de plusieurs mutations du marché français de la musique vers le dématérialisé : en participant au lancement, en 2003, des plateformes digitales de musique Fnacmusic et Virginmega ; en créant en 2004 la base de données pour la distribution digitale des labels indépendants de la SPPF ; et par le lancement en 2009 de BigaDJ.fr, premier service de Web DJ.





Les derniers chiffres des ventes de disques pour le premier semestre 2009 sont édifiants : - 67% en valeur par rapport à 2002. Malgré cette chute continue depuis plusieurs années, la profession n’a pas encore fait le deuil de son vieux modèle économique qui garantissait jusqu’à aujourd’hui ses revenus. Ce n’est pas tant la mort annoncée du support physique dont il s’agit ici que celle de la matière ajoutée par le « producteur » à la création artistique appelée communément par la profession « reproduction mécanique ». Et si la matière n’est plus source de valeur comment va-t-on s’y prendre ?

En tant que pionnier de la distribution digitale, je comprends la position délicate des producteurs et leurs difficultés actuelles. Depuis 10 ans, nous glissons inexorablement sur la pente lisse de la dévalorisation des contenus parce que le changement imposé par la technologie et le processus de dématérialisation associé n’a pas suffisamment été pris en considération.

Il va nous falloir accepter que le fichier MP3 n'a pas de valeur en soi (à une large échelle de marché) et que le fait de s'accrocher à l'idée contraire sera aussi efficace que de vouloir retenir de l'eau entre ses doigts. Faire le deuil du passé pour une entreprise c’est s’autoriser à penser différemment, à réinventer son activité et finalement à recréer une nouvelle forme de valeur.

Mais avant d'aller plus loin dans notre réflexion voici quelques retours sur image de la façon dont nous avons vécu ces premières étapes du processus de deuil.


Les étapes du processus de deuil face au changement

Selon les travaux d'Elisabeth Kübler-Ross sur le processus de deuil, largement repris dans le domaine du management des organisations, 5 étapes se succèdent l'une après l'autre.

D'abord, il y a le choc et le déni de réalité ensuite vient la réaction de colère avant de chercher à composer avec la nouvelle donne, puis vient la compréhension que l'on va devoir se changer soi même avant finalement que de pouvoir accepter vraiment la nouvelle situation telle qu'elle est.

1ère étape : Choc et déni du phénomène : les années 1999-2001

La légitimation du téléchargement gratuit a causé un véritable choc aux professionnels de la musique. Imaginez que votre médecin vous appelle au sujet d’analyses de sang dont les résultats ne sont pas bons. Il vous prescrit une hospitalisation alors que vous vous sentez bien. Comme beaucoup, vous aurez probablement le même type de réaction. Vous vous exclamerez probablement : ce n’est pas possible. Ce n’est pas vrai!

Pensez maintenant à un artiste, un éditeur ou un producteur de musique qui voit ses ventes de CD diminuer de 10 à 15% par an et constate en même temps que les consommateurs téléchargent gratuitement sa musique. Même réaction: ce n’est pas vrai, ce n’est pas possible qu'on laisse faire ça. Cette réaction se manifeste parfois officiellement comme le font les producteurs qui sont montés au créneau mais plus souvent officieusement chez les artistes soucieux de ne pas écorner leur image auprès du public.

Le déni quant à lui est une réaction très puissante, parfois difficile à surmonter. Si nous filons la métaphore dans le domaine de la santé, nous pouvons tous nous souvenir d’une personne malade, à qui son médecin avait prescrit un traitement qu’elle devait prendre chaque matin et qui s’est ingénié inconsciemment ou pas à ne jamais le suivre, allant même parfois jusqu’à des hallucinations négatives du type : « Pendant des années, mon traitement avait beau être posé sur ma table de nuit, je ne le voyais pas ! »

Souvenez-vous maintenant du cas NAPSTER et du virage raté par les maisons de disques en 2001.

Il s’agissait de trouver un accord avec le service de téléchargement le plus utilisé au monde. Une solution était là sous nos yeux mais certaines Majors n’ont pas pu l’accepter, ni y voir l’opportunité qu’elle représentait pour la filière au-delà de leur intérêt personnel.


2ème étape : Révolte, colère les années 2002-2004

Une fois la phase de choc ou de déni passée, on traverse une période pendant laquelle on considère le changement proposé comme absurde, injuste et on y réagit violemment la plupart du temps.

Pour l’industrie de la musique, c’est le moment de la révolte et de la confrontation : attaque frontale sur le plan juridique vi à vis de sites pirates comme kazaa, emule, etc. La guerre est décrétée : les sites de peer to peer ne passeront pas.

Et dans le même temps, on comprend que d’autres vont profiter de la situation (notamment les fournisseurs d’accès à internet) avec au premier rang d’entre eux Orange en France, dont l’état est l’actionnaire principal. Difficile d’imaginer dans ces conditions que le ministère de la culture puisse peser plus lourd que celui des Télécoms. Et c’est bien ce qui s’est passé jusqu’à aujourd’hui. Alors que la directive européenne pour le commerce électronique invitait depuis 2000 les pays membres à se doter d’une loi pour favoriser l’essor de l’économie numérique tout en préservant les intérêts des ayants droits, la France 9 ans plus tard vient tout juste d’accoucher d’Hadopi2 et comme par hasard au moment où les abonnés Adsl sont suffisamment nombreux pour garantir les retours sur investissement des opérateurs.


3ème étape : Négociation les années 2005-2009


Négociation : comment trouver un arrangement avec le changement ?

Lors de cette phase, on commence à se projeter dans l’avenir, et à en mesurer les avantages et les inconvénients.

Dans notre cas, le compromis semble avoir été trouvé avec le téléchargement à l’acte mais ce n’est que la pâle transposition du vieux modèle et d’ailleurs les résultats ne sont pas à la hauteur des espérances.

Ainsi il faudrait multiplier par 10 le chiffre d’affaires 2009 des ventes numériques pour retrouver un équivalent du chiffre d’affaires global des producteurs de 2002.

En effet d’après les chiffres publiés par le SNEP, si la courbe de progression des ventes numériques montre un chiffre d’affaires de 37,6 M€ au 1er sem. 2009 contre 5,8 M€ en 2002, les revenus du disque quant à eux ont dégringolés de 577M€ à 191M€. sur la même période. Autant dire que le téléchargement payant est loin de compenser la chute des ventes de CDs dont la majeure partie se réalise désormais durant les fêtes de Noel. Le CD est devenu un produit de saison tout comme les huitres et le foie gras.

Pendant ce temps, on s’accroche à tout ce qu’on peut. Il s’agit d’essayer d’avoir une part du gâteau dans les startups en monnayant le catalogue contre des parts sociales et/ou des avances financières. Le syndrome du « take the money and run » est le mode de fonctionnement par défaut, faute d’une vision plus éclairée sur ce que nous réserve l’avenir.


4ème étape : Réflexion et retour sur soi en 2010 ?

A ce moment de dépression, il y a obligation de se « repenser » pour continuer à exister. Ici la réflexion porte sur la question de la valeur ajoutée de « l’industrie du disque » selon la nouvelle donne numérique.

Pour cela, il nous faut poser les bases d’une nouvelle problématique où s’entremêlent une multitude de questions d’ordre :
. juridiques sur l’avenir de la copie privée
. techniques sur la gestion des droits d’auteur et des droits voisins
. économiques sur le déplacement et la création de la valeur
. marketing sur le développement des nouveaux services à abonnement
. etc.

Bien sur, nous nous sommes posés des questions sur l’évolution de notre métier et même certaines maisons de disques se sont rebaptisées « maisons d’artistes » pour marquer leur distance par rapport à un ancien métier trop étroitement lié au support. Mais au-delà de la formule et des efforts pour capter d’autres formes de revenus déjà existantes comme les éditions ou les concerts, on peut se demander s’il y a eu une vraie réflexion quant à la nécessité de se transformer.

Force est de constater que l’industrie du disque n’a pas encore fait le tour de ces questions. Quand ce sera le cas, elle sera en mesure de se réinventer et d’être en capacité de proposer de nouvelles offres à valeur ajoutée en partenariat avec les innovateurs qui ne manqueront pas de continuer à solliciter son catalogue.

Nous n’en sommes qu’au début de ce processus de réflexion qui intègre véritablement et définitivement le changement. Bien sur il y a eu par le passé des tentatives d’adaptation mais elles s’inscrivaient dans une logique de combat et pas dans une logique d’acceptation. Dans cette logique de combat, on pense pouvoir dominer la situation à son avantage. Par exemple, il s’est agit pour les majors de développer en propre des sites de téléchargement comme Pressplay ou Musicnet avec comme résultat l’échec qu’on connaît, alors que le bon sens eut été de faire confiance aux initiatives venant d’acteurs plus compétents pour créer une large demande (comme Napster par exemple) d’une part, et de créer les conditions favorables au développement de ces nouvelles offres, d’autre part.

Par exemple, au travers d’une plateforme internationale de backoffice qui aurait permis une traçabilité des usages gage de l’établissement d’une relation de confiance entre ayants droits et la multitude de nouveaux services qui n’auraient pas manqué de s’y raccorder.

Malheureusement et à défaut d’avoir compris la nécessité d’internaliser la technologie selon une approche B2B et non B2C, c’est encore la méfiance générale qui domine entre les acteurs.

Combien de temps avant de passer à l’acceptation définitive du changement et à quelles conditions ?

De manière non exhaustive, cela va dépendre en France :

. de la possibilité de prouver le bien fondé des contrôles HADOPI en démontrant une capacité technique et juridique à faire diminuer le téléchargement pirate, non pas tant sur la quantité globale qui a déjà décrue naturellement ces derniers mois que sur le plan psychologique pour limiter son utilisation comme alternative aux offres légales. Le point presse du SNEP au Midem 2010 sera riche d’enseignements à ce sujet.

. du soutien aux énergies créatrices pour de nouveaux services, seuls source de véritable création de valeur à long terme. A noter par exemple, l’initiative très positive du service à abonnement Spotify, dont les majors sont partie prenante, d’ouvrir ses librairies à la communauté des développeurs.

Autre service innovant, BigaDJ.fr qui invente le concept de webDJ, avec des soirées prêtes à l’emploi. BigaDJ est actuellement le service le plus cher du web musical avec de la location de musique pour 24H à un prix de 49€. Néanmoins ça reste dix fois moins cher qu’un vrai DJ et les droits sont reversés.

. du lancement de chantiers informatiques tels que par exemple une base de données métier permettant d’améliorer la productivité de sociétés de gestion collective comme la SACEM, la SPRE, l’ADAMI, la SCPP ou la SPPF en vue de répartir au plus juste en fonction de la réalité des usages … c’est dans ces conditions que l’instauration d’une rémunération vraiment équitable pourra être réalisée,

. de nouveaux mandats collectifs pour les sites de streaming et de téléchargement temporaire plutôt que par les accords de gré à gré actuels demandés par les producteurs. Mais pour cela, il faudra dépasser le stade du syndrome : « Où sont passés les 280M$ de la vente de LastFM ? » qui crispe encore les esprits.

. de la contribution financière des FAI en fonction des téléchargements « pirates » sur le principe de la copie privée. Il ne parait choquant à personne aujourd’hui de voir sa facture de téléphonie sur internet fluctuer en fonction de ses communications.


5ème étape : Acceptation, oui mais quand ?

C’est seulement après s’être plongé sans concession dans l’étape précédente et en être sorti comme régénéré qu’on sera en mesure de reconnaître que le changement apporte au moins autant, sinon plus d’avantages que d’inconvénients par rapport à la situation antérieure.

« L’industrie de la musique doit changer d’attitude et composer avec son avenir plutôt que se battre contre lui. Pour renouer avec le succès, elle devra prendre en considération que les nouveaux modèles de revenus seront “un mix entre la publicité, le téléchargement, les abonnements et la vente de billets” et où la clé du succès viendra “d’un packaging approprié des droits d’accès et de la portabilité de ceux-ci”, nous dit Daniel Ek, le cofondateur de Spotify.
Le processus de deuil décrit ci-dessus n’est pas totalement accompli, sinon nous aurions déjà vus les signaux de cette nouvelle prise de conscience. Mais il est en train de franchir un cap, celui où l’intime conviction de devoir changer supplante le simple besoin initial de chercher à comprendre ce qui nous arrive. Mais pour que nous acceptions de changer encore faut il créer un climat de confiance entre les uns et les autres. Cela implique que nous ayons d’abord confiance en nous mêmes et en notre capacité de faire différemment qu’auparavant. Ce sera alors le premier signe du véritable changement.

Il n’en demeure pas moins que la problématique reste complexe au même titre que bien d'autres changements de paradigme que nous connaissons aujourd'hui dans des domaines aussi différents que la finance, l'écologie ou la santé. De fait, il s'agissait moins ici de proposer de pseudo solutions qui seront rapidement balayées par le vent des innovations que de partager simplement avec vous une analyse nourrie aux racines des profonds bouleversements constatés.

Le site internet www.alerteGPS.com propose depuis longtemps aux possesseurs de terminaux portables GPS de télécharger (gratuitement pour la version basique) la liste mensuelle des radars fixes,mais aussi les zones susceptibles d'accueillir des radars mobiles et celles qui sont dangereuses en raison de travaux.

Depuis quelques temps, AlerteGPS s'est investi sur le créneau porteur des avertisseurs communautaires. C'est-à-dire que les automobilistes équipés constituent une communauté d'entraide, chacun pouvant signaler aux autres la présence d'un radar mobile lorsqu'il en croise un en roulant. AlerteGPS revendique "la plus grande communauté live de France" avec quelque 687000 utilisateurs.

On peut accéder à cette communauté de deux façons : soit en téléchargeant gratuitement une application sur son smartphone (l'application Wikango est ainsi disponible pour l'iPhone sur l'AppStore) soit en achetant ceux des boîtiers commercialisés par AlerteGPS et qui sont dotés de la fonction Live. Wikango est gratuit pour iPhone et coûte 24,90 euros pour tous les autres téléphones compatibles à vie (il n'y a pas d'abonnement) ; il faut souscrire un abonnement à 60 et 100 euros pour respectivement une ou deux années si l'on dispose d'un boîtier. Outre la possibilité de communiquer avec les autres membres de la communauté, un abonnement permet aussi de recevoir les mises à jours de radars sans avoir besoin de passer par un ordinateur, directement sur le téléphone ou le boîtier.

Les boîtiers justement ont vu leur gamme couronnée récemment par le Wikango One, dont nous avons pu effectuer le test. Ce boîtier compact dispose d'un écran couleur très lumineux et d'un joystick permettant de naviguer dans ses menus.

Divisé en plusieurs parties, l'écran indique la vitesse du véhicule, le nombre de membres (les Safety Cars) de la communauté (sur l'axe ou autour de son véhicule) et bien sûr s'il y a ou non des radars. Ces derniers sont signalés en amont par une voix ; un pictogramme indique la vitesse limite autorisée et une barre de progression s'agrandit jusqu'au point de rencontre du radar.

Sur le trajet Toulouse-Rodez, qui mixe une autoroute (A68) et une nationale (N88), la précision des informations a été remarquable. Les radars fixes sont très précisément indiqués. Idem pour les zones susceptibles d'accueillir des radars mobiles. L'appareil suggère même s'il s'agit d'un contrôle à la jumelle, avec un radar mobile sur pieds ou embarqué dans une voiture banalisée et même mes nouveaux radars aux feux tricolores.

Si l'on croise un radar ou un danger, il suffit de d'appuyer sur le bouton Live. L'appareil propose alors de choisir entre signaler un danger (accident ou travaux) ou un radar (fixe ou mobile). Un mode simplifié permet de signaler d'un seul clic un radar.

Avec leWikango One, AlerteGPS se hisse en bonne place sur le marché de l'avertisseur légal de radar. Alerte GPS, Coyote, Navirad, Inforad, etc. Autant de sociétés qui répondent à une demande de plus en plus forte des automobilistes. Une demande qui n'est pas près de se tarir ; le gouvernement ayant prévu de multiplier les radars en 2010.

Le Wikango One est commercialisé 159 euros avec 3 mois d'abonnement ou 249 euros avec 12 mois d'abonnement.

L'une des principales caractéristiques des cartes géographiques de Google (les fameuses Google Maps) est qu'elles peuvent être interfacées avec des banques de données selon le principe du mashup. Ainsi, on peut avoir une carte de la région avec les meilleurs restaurants localisés. Mais là où l'idée devient intéressante, c'est lorsque l'on combine des cartes avec de grandes bases de données. C'est le cas de la base de connaissance mondiale Freebase qui propose désormais sur une cartographie de 50 siècles de guerres sur la planète. Sur www.conflicthistory.com, on visualise ainsi les champs de bataille, le nombre de morts au cours d'une frise historique qui conduit le visiteur de la guerre du Kurukshetra (-3 000 à -1 000 avant notre ère) jusqu'à la guerre en Afghanistan et au conflit israélo-palestinien. Une belle leçon d'histoire.

Le centre spatial de Toulouse se prépare à passer une longue nuit entre dimanche et lundi pour superviser le lancement du satellite SMOS (Soil Moisture and Ocean Salinity) qui va étudier l'humidité des sols et la salinité des océans, deux variables clés du changement climatique. A un mois du Sommet de l'ONU sur le climat qui se déroule début décembre à Copenhague, ce nouveau satellite constitue pour les scientifiques un outil capital pour la connaissance du climat et les conséquences du réchauffement. Toulouse apparaît en première ligne dans la mise en œuvre de cette mission. En effet, le principal instigateur de la mission SMOS est le Centre d'Études Spatiales de la BIOsphère (CESBIO), une unité mixte de recherche qui dépend du CNES, de l'université Paul-Sabatier de Toulouse, du CNRS et de l'IRD. Le CNES est l'un des principaux partenaires de l'agence spatiale européenne (ESA) dans ce programme. Le satellite SMOS (683 kg pour 8 mètres d'envergure) sera lancé à 2 h 50 de Plesetsk (Russie) pour s'installer en orbite circulaire à 755 km d'altitude. Ses 69 capteurs fourniront pendant trois ans au minimum de précieuses données exploitées par le monde scientifique et les professionnels de la météo. « Les pêcheurs et les navigateurs, toujours à la recherche des meilleurs courants, seront aussi des utilisateurs potentiels des données SMOS ainsi que le monde agricole très demandeur de prévisions météo fiables. Enfin, les pays confrontés aux problèmes de gestion de l'eau et des cultures pourront aussi disposer des informations SMOS », explique le CNES.

Le lancement est à suivre en direct ici : www.cnes.fr


Sauf coup de théâtre de dernière minute, le fournisseur d'accès à internet Free, filiale du groupe Iliad, devrait être le seul candidat à la 4e licence de téléphonie mobile. En déposant son dossier hier matin devant l'Autorité de régulation des communications et des postes (Arcep), Free Mobile, la société créée pour ce projet ambitieux, a indiqué vouloir « accélérer l'essor du multimédia mobile et répondre à la forte attente des consommateurs vis-à-vis d'offres plus simples, moins chères et plus innovantes. »

Le trublion de l'internet, l'inventeur de la box et du forfait tripleplay (internet, haut débit, téléphone, télévision) à 29,90 € par mois va donc s'attaquer à la téléphonie mobile, un bastion détenu par Orange, SFR et Bouygues Télécom. Un bastion et surtout une poule aux œufs d'or - 25 milliards d'euros de chiffre d'affaires en 2008 - au nom de laquelle, selon l'État et les associations de consommateurs, la concurrence a été étouffée au préjudice des clients. Le conseil de la concurrence avait d'ailleurs sanctionné en 2005 les trois opérateurs d'une amende record de 534 millions d'euros pour entente illicite.

Après un raté en 2007 où la candidature de Free avait été rejetée par l'Arcep car il souhaitait payer le prix de la 4e licence (619 M€) en plusieurs fois, cette fois-ci semble bien être la bonne. Ni les recours des trois opérateurs contre le prix fortement réduit (240 M€) de la 4e licence ; ni le scepticisme et les réserves exprimées mi-septembre par le Président de la République et ami intime de Martin Bouygues, ne devraient repousser l'arrivée du 4e opérateur.

Un milliard d'euros

Une arrivée qui pourrait même intervenir plus tôt que prévu. Le président de l'Arcep, Jean-Luc Silicani, a, en effet, déclaré lundi que s'il n'y avait qu'un candidat, la décision serait prise « avant Noël » ou « sinon début 2010. »

Ne restera plus à Free Mobile, si c'est lui qui est choisi, qu'à réussir là où tous les autres postulants (Kertel, Numéricable-Virgin Mobile, Bolloré et Orascom) ont préféré jeter l'éponge : construire un réseau et proposer des offres révolutionnaires à la hauteur des promesses du PDG, Xavier Niel, qui a récemment proposé de diviser la facture télécom des Français par deux. Free a évalué à un milliard d'euros son investissement total. « Il y a un côté un peu fou » à se lancer dans ce projet, reconnaît-on volontiers chez Free.

Mais disposer d'un réseau mobile est plus que jamais crucial pour les fournisseurs d'accès à internet car l'avenir du net se joue sur les téléphones mobiles de type iPhone. En se lançant dans la téléphonie mobile, Free joue donc aussi sa survie et prend date pour la guerre des tarifs dont les consommateurs attendent beaucoup.

Ce que ça va changer

De nouvelles offres vers 2011. Free assure que, s'il est choisi, il ouvrira son service de téléphonie mobile 18 mois après avoir eu la licence, soit vers l'été 2011. En arrivant si tard sur un marché où plus de 90 % de la population est déjà équipée, Free viserait les clients quittant leur opérateur plutôt que ceux n'ayant pas encore d'abonnement. Selon les analystes de Société Générale, le nombre de clients potentiels serait d'environ 13 millions début 2012.

Des prix en baisse. Selon un rapport réalisé par Bercy en 2008, l'arrivée de ce 4e opérateur ferait baisser les prix de 7 %, soit « un gain de 1,224 milliard d'euros par an pour les consommateurs ». Free promet de diviser par deux la facture de téléphonie mobile des Français (2 000 euros par an pour un foyer avec trois abonnements). Mais, a mis en garde hier le président de l'Arcep Jean-Ludovic Silicani, « si le nouvel entrant engageait une vraie guerre des prix, vu la taille des opérateurs en place, il serait le premier à disparaître ».

De nouvelles antennes. Le nouvel opérateur devra construire son réseau en implantant de nouvelles antennes : 12 000 selon Numericable, qui a jeté l'éponge. Difficile vu le manque de place à côté des réseaux existants et les inquiétudes des riverains sur l'impact sanitaire des ondes. Selon la Société Générale, Free pourrait nouer des accords avec des acteurs comme TDF ou des sociétés immobilières, qui disposent d'un grand nombre d'emplacements.

Un opérateur qui peut être rentable. Bercy estime dans son rapport qu'un 4e acteur « apparaît rentable », à condition notamment d'atteindre une part de marché de 12 % au bout de six ans. Free envisage « un plan d'un milliard d'euros pour couvrir 90 % de la population », en plus du prix de la licence (240 millions). Mais d'après les analystes de la Société Générale, « le financement peut être facilement bouclé » par Free grâce aux « liquidités que génère son activité internet » et aux conditions favorables que devraient lui faire les équipementiers télécoms.


Expert : « Un 4e opérateur pour plus de concurrence »

Pourquoi faut-il un 4e opérateur ?
Édouard Barreiro, porte-parole et chargé de mission TIC et Commerce de l'UFC-Que Choisir : Notre expérience montre qu'il faut un nouvel opérateur. En 2005, suite à une action de l'UFC-Que Choisir, les trois opérateurs ont été condamnés à une amende record pour entente. On aurait pu s'attendre à ce qu'il y ait plus de concurrence. Or les tarifs se ressemblent encore beaucoup ; les opérateurs ne sont d'évidence pas en guerre les uns avec les autres. Les premiers perdants ce sont les consommateurs. Il faut donc un 4e opérateur pour amener plus de concurrence.

Xavier Niel, le PDG d'Iliad, a déclaré vouloir diviser par deux la facture télécom des Français. Est-ce possible ?
Il ne faut pas prendre une facture actuelle chez Orange par exemple et la diviser par deux. En revanche, le 4e opérateur pourrait proposer des modèles différents inspirés de ce qui se fait à l'étranger. Aux États-Unis par exemple, il existe des forfaits Famille dont les minutes de communication sont partagées entre tous les membres. En Angleterre, on trouve des forfaits de 3-4 heures avec la possibilité de communiquer par la voix sur IP avec Skype, ce qui n'est pas possible en France.

Y aura-t-il une explosion du nombre d'antennes pour ce 4e entrant ?
Non car les installations des antennes du 4e opérateur se feront sur des sites déjà équipés. Les « points O » devront être partagés entre tous les opérateurs.
Si les études scientifiques sur la nocivité des ondes électromagnétiques de la téléphonie mobile restent contradictoires, l'exigence légitime de transparence de la population ne cesse de croître. C'est pour répondre à cette demande, notamment exprimée lors du « Grenelle des ondes » par les associations, que SFR, deuxième opérateur télécoms en France, a décidé d'organiser une opération de communication inédite et unique en France pour l'installation de trois nouvelles antennes à Toulouse, Béziers et Rennes.

« On a souvent reproché aux opérateurs un manque d'informations, un manque de transparence. Nous avons décidé de répondre à cela en faisant mieux alors que rien ne nous y oblige, puisque nous avons bien sûr toutes les autorisations à l'installation de nos antennes », explique Patrick Caméo, chargé de communication de SFR Région Sud-Ouest. À Toulouse justement, dans le quartier Saint-Cyprien, les personnes habitant dans un rayon de 100 mètres autour de l'emplacement de la future antenne ont reçu en début de semaine dans leur boîte à lettres un courrier de Philippe Cometti, responsable environnement de SFR. Un millier de courriers a ainsi été distribué, accompagné d'un dépliant expliquant le fonctionnement d'une antenne. Mieux, un site internet a été réalisé entièrement dédié à l'antenne toulousaine (www.antennerelaisSFR-toulousesaintcyprien.fr). Le dossier de présentation du projet, qui est habituellement consultable en mairie, est téléchargeable sur le site. « Pourquoi une nouvelle antenne ? Comment sera-t-elle intégrée à l'architecture existante ? Quel est son fonctionnement ? Que va-t-elle permettre ? » sont quelques-unes des questions qui seront abordées sur le site. SFR a également ouvert une adresse e-mail (relations-regionales.sudouest@sfr.com) pour recueillir les questions des riverains. Enfin, l'opérateur va tenir deux permanences d'information mardi 27 et mercredi 28 octobre.
« C'est vraiment une première, un test. S'il est concluant, cette méthode de communication sera mise en place pour l'installation de chaque nouvelle antenne », précise Patrick Caméo.