C’était un peu le salon de la reprise. Le nombre de visiteurs aurait atteint environ 140.000 personnes, alors qu’il était descendu à moins de 110.000 en 2008, puis remontait lentement la pente depuis. Cela se voyait dans les allées, dans les conférences de presse, et même dans le trafic routier très congestionné de Las Vegas. Le salon est plein d’innovations mais, comme d’habitude, on n’y découvre pas d’innovations de rupture. L’innovation est un processus graduel, permanent. Avec des soubresauts, des phénomènes d’expansion ou de reflux. C’est un peu ce que l’on pouvait observer au CES cette année concernant la 3D, les télévisions connectées, les interfaces utilisateurs, tout comme avec les tablettes et mobiles. La paradoxe du “rien de vraiment nouveau” couplé à “plein de nouveautés” !
La vidéo 3D était mise en valeur par l’ensemble des constructeurs qui veulent pousser très proactivement leurs nouvelles offres associées auprès des consommateurs. Cela concerne évidemment les écrans, mais aussi les sources (lecteurs Blu-ray, set-top-boxes) tout comme les moyens de capture qui se multiplient pour le grand public avec de nombreuses caméras (Sony, Panasonic, JVC, etc.) et quelques appareils photo qui fonctionnent en 3D (notamment chez Sony).
Du côté de l’affichage, le débat fait rage sur les mérites respectifs des lunettes actives et passives, j’y reviendrai dans le rapport. On trouve des solutions d’affichage sans lunettes dites “auto stéréoscopiques” mais elles sont toujours très moyennes. Il faut dire que c’est un problème technique assez difficile – voire impossible – à résoudre. On se console donc avec des lunettes 3D stylées que l’on peut trouver chez Samsung, LG Electronics, tout comme chez une myriade de sociétés plus spécialisées, dont, surprise, Polaroid qui en lançait une paire conçue par Lady Gaga, venue sur leur stand et attirant une foule considérable.
La grande nouvelle du CES 2011, c’est que Google TV n’est plus l’épouvantail de l’industrie qu’il incarnait depuis son lancement en avril 2010. Tout du moins, pour l’instant. À la fois parce que quasiment aucune solution nouvelle le mettant en œuvre n’était annoncée (à part Samsung qui présentait en catimini un boitier “over the top” et un lecteur Blu-ray sous Google TV), Google ayant demandé à ses partenaires constructeurs de repousser leurs annonces. Mais aussi parce que la solution est pour l’instant assez décevante à l’usage, tout du moins lorsque l’on souhaite consommer de la télévision “à l’ancienne” et pas juste sur YouTube. J’ai pu le constater chez Sony, Logitech et Dish Network, les trois stands où Google TV était exploitable.
En conséquence de quoi, on pouvait observer les TV connectées qui continuent de s‘améliorer “en silo” chez les grands et petits constructeurs, comme chez LG Electronics dont la LG SmartTV semble être une des plus abouties de ces solutions (ci-dessous).
J’ai pu également regarder de près l’offre IPTV multi-écrans de Verizon (FiOS) qui a l’air d’être assez complète, avec les chaines des grands networks disponibles en streaming live sur iPad et autres écrans mobiles. Comme quoi, à l’instar de nos FAI en France, les opérateurs télécoms ont encore leur rôle à jouer dans les TV connectées.
Comment piloter sa TV ou sa set-top-box, tout comme ses consoles de jeu ? Les commandes gestuelles étaient très présentes sur le salon. Résultat de l’effet “Kinect”, la solution de Microsoft pour la XBOX 360 qui s’est vendue à 8 millions d’exemplaires en deux mois, un record dans la sortie d’un nouveau produit grand public. Derrière ces solutions, on trouve des fournisseurs de technologies comme l’israélien PrimeSense à l’origine de Kinect et qui licencie à tour de bras sa technologie de chipset et son reference design, notamment chez Asus (ci-dessous). Vous risquez donc de la voir apparaitre un peu partout. Sans compter les technologies des concurrents de Prime Sense qui utilisent le “Time of Flight” pour détecter les mouvements (nous y reviendrons…).
On trouvait aussi sur le salon un très grand nombre de petits claviers sans fil. Beaucoup plus que les années précédentes. Que ce soit pour s’interfacer avec une tablette, un smartphone ou un PC media center.
Je ne vous apprendrai rien en vous indiquant que l’on trouvait plein de tablettes au CES.
La plupart étaient sous Android et notamment dans la version Honeycomb qui supporte bien les interfaces tactiles. On en trouvait autant chez les grandes marques (Samsung, LG, Panasonic, Acer, Asus, etc.) que chez les sociétés chinoises qui les fabriquent en standard (OEM) ou sur mesure (ODM). À ceci près que les tablettes bas de gamme sont en général équipées de processeurs bas prix anémiques. Il faut s’en méfier.
Un phénomène intéressant : la frontière entre smartphones et tablettes voire netbooks s’amenuise. Il est incarné par l’Atrix de Motorola, son nouveau smartphone sous Android qui présente la particularité d’être associable à une docking station en forme de netbook très plat (ci-dessous). C’est très séduisant comme concept.
On trouvait aussi des tablettes sous Windows avec ou sans clavier, notamment chez Dell, Samsung et Asus. Peut-être un revival des “Tablet PC” qui n’ont jamais vraiment percé sur le marché.
Côté ebooks, j’ai été surtout bluffé par l’écran e-paper en couleur Mirasol de Qualcomm (ci-contre), présenté pour la première fois au CES. On attend toujours les ebooks qui en seront équipés. La production de ces écrans, pour l’instant au format 7 pouces, aurait déjà démarré donc cela ne devrait pas tarder.
Les constructeurs d’ebooks se différencient maintenant plutôt dans les offres de contenus que dans leur matériel, tellement ils sont standardisés autour des écrans provenant d’e-ink.
Le phénomène est très marquant. On trouve Android mis à toutes les sauces : dans les tablettes, dans les smartphones, dans certains netbooks, dans les TV et certaines set-top-boxes et même dans les autoradios. Sa gratuité n’y est pas pour rien. Mais peu d’appareils sont certifiés Google et chacun a son propre “Application Store”. Je vous explique pourquoi dans mon rapport CES 2011.
Ce salon marquait aussi la montée en puissance de la 4G dans la mobilité. Elle est poussée par les opérateurs (Verizon, Sprint, etc) comme par les constructeurs (Samsung, LG, etc). Avec des déploiements qui vont varier d’un pays à l’autre. On pouvait cependant noter l’absence d’AT&T sur le salon.
Un grand nombre des innovations évoquées ont comme origine les évolutions des processeurs embarqués. Leur rôle est critique et je vais le décrypter dans mon rapport.
On trouvait au CES des sociétés comme Intel mais aussi Qualcomm, Broadcom, ST Microelectronics, Marvell, Atheros, qui ont toutes des offres intéressantes. Qualcomm, encore lui, propose maintenant son System On Chip Snapdragon en version bi-coeur, que l’on retrouvait dans divers smartphones. Idem dans la TV, où les Atom Sodaville et Groveland (Intel), le 7225 de Broadcom et le 7108 de ST Microelectronics rendent possibles la création des set-top-boxes de la nouvelle génération.
Le rôle de ces processeurs embarqués est tel que Microsoft a annoncé au début du salon le support de certains d’entre eux, notamment sur architecture ARM, dans la prochaine version 8 de Windows.
Il faut aussi noter le rôle tout aussi critique des capteurs : gyroscopes, GPS, accéléromètres, capteurs de pression, de luminosité, qui s’intègrent dans tous ces objets numériques. Ces nouveaux capteurs sont notamment utilisés dans un tas de solutions dédiées à la santé, assez nombreuses sur le salon.
J’ai même vu un nanocomposant de spectrographie qui pourrait servir à améliorer le calcul automatique de la balance des blancs dans les appareils photos.
Le « crapstore » est un diminutif décrivant la variété de ces gadgets matériels qui complètent les produits Apple. On en trouve une quantité toujours incommensurable, avec la nouveauté de l’iPad à laquelle tout “l’after market” s’est adapté en juste quelques mois.
Il y a bien entendu plein de trucs classiques sans grand intérêt (les pochettes en cuir, les coques en couleur, les stations d’accueil) mais d’autres gadgets peuvent être plein d’ingéniosité ou surprendre. Il en va ainsi de ce système de karaoké pour iPad (ci-dessous). La liste est très longue et vous aurez droit à un reportage photo complet de ces gadgets dans le Rapport CES.
Il y avait beaucoup de Français au CES 2011, autant visiteurs qu’exposants. J’ai découvert pas mal de sociétés françaises qui exposaient pour la première fois, sans compter les Français qui dirigent des PME innovantes à l’étranger (USA, Hong-Kong). Mon inventaire des sociétés françaises exposant bat des records depuis que je visite le CES (2006). C’est un signal très encourageant du dynamisme de nos PME innovantes.
Parrot est l’une d’entre elles et est bien connue pour exploiter le CES pour ses grands lancements. La société a encore marqué des points avec le lancement de son autoradio sous Android, l’Asteroid (ci-dessous).
Voilà pour commencer. Ce salon reste un émerveillement tellement on y croise de nouveautés, même si elles ne sont pas radicales. Les usages numériques sont infinis, les combinatoires illimitées. Il faut juste savoir conserver le regard d’un enfant émerveillé lorsque l’on visite le salon. Sans compter cette folle ville qu’est Las Vegas.
Le rapport exploite une base de 4.400 photos, 190 vidéos et 120 Go de contenus à trier, captés avec mon Canon 5D Mark II. Du pain sur la planche ! Vous pouvez télécharger le rapport de Olivier Ezratty :
Vous pouvez aussi regarder les interviews sous Skype réalisées avec notre ami à tous Jean-Michel Billaut pendant toute la durée du salon (Day 1, Day 2, Day 3, Day 4 et Day 5) !
—
Article initialement publié sur le blog Opinions Libre
>> photos de Olivier Ezratty / image de clé CC TechCocktail
]]>En France, le possesseur d’iPad dépense 27 euros/mois sur sa tablette, selon une étude d’Oto Research (Fullsix) réalisée auprès de 270 possesseurs français d’iPad. Ce qui est un chiffre très encourageant.
Depuis le lancement de la tablette, de nombreuses études ont été publiées qui permettent de dresser aujourd’hui un portrait assez précis de cet utilisateur pas comme les autres.
Ils sont plus de 7,5 millions dans le monde, et près de 400.000 en France (selon les observateurs, même si aucun chiffre n’a été communiqué par Apple sur le territoire).
Portrait :
-L’utilisateur moyen de l’iPad est un homme (60% selon Forrester), âgé entre 30 et 40 ans en France (Oto Research), mais un peu plus jeune aux USA (63% a moins de 35 ans, et plus jeune que les possesseurs d’iPhone). C’est un CSP+ (39% d’entre eux gagnent en moyenne plus de 80.000 dollats/an, et même 100.000 dollars en moyenne selon Nielsen). Et il n’est pas réfractaire à la publicité sur sa tablette.
-Il utilise son iPad en moyenne un peu plus de dix fois par jour surtout le matin et le soir, principalement à domicile. Deux heures par jour en moyenne ! L’usage qu’il en fait est dans plus d’un cas sur deux autant personnel que professionnel.
-Il a également tendance a le partager avec sa famille et ses amis, ce qui en fait un outil moins personnel que le smartphone.
-Il passe plus de temps à consommer des contenus traditionnels comme les magazines, les livres et les films, que les possesseurs d’iPhone par exemple (Nielsen). Comparés au reste de la population, il passe 50% de temps de plus à lire des magazines et des articles de magazine. Et 75% de temps en plus que les autres à lire des journaux ou des articles de journaux. Et +25% de temps à lire des livres. Sur les news en général, il y consacre plus de temps que les utilisateurs d’iPhone (78% des utilisateurs d’iPhone y passent moins de 15 minutes par jour (en semaine) à lire des infos quand 56% des propriétaires d’iPad y consacrent de 16 minutes à deux heures quotidiennes !).
Il lit également plus longtemps que sur papier : un magazine (étude Conde Nast) est lu en moyenne 46 minutes par mois sur papier, mais 106 minutes sur iPad. Plus d’une heure de lecture, contre 3 à 4 minutes pour un site web, affirme Chris Anderson.
-Du coup, l’iPader passe moins de temps devant son ordinateur, il lit moins la presse sur papier (39 %), regarde moins la télévision (34 %) et utilise moins son téléphone mobile (31 %). De manière générale, il déclare passer 15 à 20% de moins sur Internet.
-Sauf qu’il utilise beaucoup son navigateur iPad pour surfer ! En France, l’iPad est très utilisé pour surfer : 51% des sondés disent utiliser plus souvent Safari que des applications téléchargées.
-Il possède tout de même une cinquantaine d’applications, gratuites et payantes confondues. Et la bonne nouvelle, donc : il dépense 27 euros par mois, dont 15 euros en applications et 12 euros sur iTunes, ce qui comprend l’achat de publications écrites.
-À ce propos, il reconnaît dépenser plus d’argent qu’il ne l’imaginait (33%, selon une étude Harrisson et Zinio). Et n’a pas de préférence marquée pour le micro-paiement (20%) ou l’abonnement (20% aussi)
En résumé : il est jeune, plutôt mâle (le poids de la tablette y est pour quelque chose), plutôt fortuné, plutôt bien éduqué, il lit plus que les autres, passe beaucoup de temps à lire des contenus traditionnels même s’il surfe aussi beaucoup sur le web à la maison. Et il est prêt à payer des contenus à lire et à télécharger des applications. Le client parfait pour les médias.
—
Billet initialement publié sur La social NewsRoom
Image CC Flickr Tom Raftery
]]>Comme chaque année à la conférence de l’ONA, Ammy Webb, consultante média, a fait salle comble avec son « top ten » des tendances technologiques appliquées aux médias.
Voici le cru 2010 :
Utilisé depuis une quinzaine d’années en Asie, le fait de scanner, via des smartphones, des codes-barres, répartis un peu partout dans la ville et les médias, se développe fortement aux USA. Il permet de renforcer l’engagement du média et de ses annonceurs avec son audience. Les médias devraient utiliser davantage ces comportements urbains en offrant des liens vers leurs médias ou depuis leurs médias. Google utilise bien cette fonction.
Extension progressive vers la reconnaissance optiques de caractères.
Aujourd’hui, les gens qui utilisent Foursquare ou Yelp peuvent tricher sur leurs vrais lieux d’enregistrement manuel. Les distances réelles restent floues en raison des limites des systèmes d’exploitation. Certains téléphones offrent des notifications push, mais d’autres n’en ont pas. Il faut alors vérifier les mises à jour. C’est contraignant.
Mais il est facile de créer des notifications envoyées automatiquement à partir de l’entrée sur un territoire, pour des applications mobiles, des réseaux sociaux et des contenus. (Pratique pour surveiller ses enfants , recevoir des messages pertinents de boutiques dans une zone ou des informations à des lecteurs d’une région).
Certaines peuvent être dynamiques et réactualisées en temps réel en fonction de votre position géographique.
Une application de «geofencing» est disponible sur l’iStore.
Autres exemples :
-Miso
-Tunerfish (Comcast)
-Fanvibe
-Superglued
-iSwig
-TabbedOut
-Plerts
L’analyse prédictive permet d’anticiper le comportement des utilisateurs en ligne et dans les réseaux sociaux, pour déterminer ce qu’ils voudront regarder, lire, acheter, etc.
Des informations d’analyse prédictive, produites à partir de données personnelles librement communiquées (volontairement ou non), sont utilisées par des marques dans Facebook où il est désormais possible d’acheter des produits. cf Kembrel.
-Amazon s’est ainsi associé à Facebook pour y présenter des solutions e-commerce. À utiliser en combinaison avec Quora.
-ESPN.com les utilise aussi à son avantage pour cibler son audience et mieux comprendre l’attitude de ses visiteurs internautes.
-Twitter va lancer sous peu un outil mesurant vos centres d’intérêt.
Oui, les gens veulent savoir ce qui se passe autour d’eux, mais ils souhaitent une approche plus sophistiquée que ce qui est proposé aujourd’hui. Pour l’instant, les initiatives hyperlocales sont limitées à un public de geeks, d’universités et de fondations. Le grand public n’en a cure.
Le tableau ci-dessous montre les limites du succès des initiatives hyperlocales :
Il vaut donc mieux privilégier l’hyperpersonnel :
Le contenu doit être un contenu de niche. Pas hyperlocal, mais géographiquement spécifique.
« Local » signifie l’endroit où je suis maintenant. Pas forcément là où je vis ou je travaille.
Le contenu doit être crédible et en temps réel.
Il ne s’agit pas seulement de cartographies et de contenus UGC.
Le contenu doit impliquer les réseaux sociaux pour réussir.
Le public souhaite être en mesure de trier en temps réel et de manière dynamique les continus qu’il a choisis, par exemple via les flux RSS et surtout désormais via les réseaux sociaux.
Sur l’iPad, l’application Flipboard est un des exemples les plus aboutis de l’avenir d’une information, triée par des personnes en qui vous avez confiance.
Autres exemples :
-Wavii (private alpha)
-Storify (private beta) : un CMS pour des flux venant des réseaux sociaux en temps réel. Utilisé par le site TBD.
-Qwiki (private alpha)
ou encore Paper.li et Twittertim.es pour les flux Twitter.
Les médias doivent utiliser ces outils pour publier leurs contenus et aider au tri sélectif des contenus du web. Un des objectifs serait de remplacer Google News par ce type d’outils sociaux intelligents. Mieux qu’un simple agrégateur !
De nouveaux outils de recherche moissonnent les réseaux sociaux pour creuser et trouver l’information. Très utile pour les journalistes mais, attention, danger pour vos données personnelles.
Exemples :
-Greplin.com (bêta privé) permet de chercher dans tous vos réseaux sociaux, ainsi que sur le web, le courrier électronique et dans d’autres endroits, tout à la fois. Le meilleur ami des reporters !
-Google a racheté Angströ pour dopper Google Me et concurrencer Facebook.
-Spokeo combiné avec KnowEm peut maintenant être utilisé pour traquer les noms d’utilisateur caché.
Facebook devient aussi de plus en plus un moteur de recherche.
La réalité augmentée va changer la manière dont le public va accéder à l’information.
- Voir quelques vidéos spectaculaires de démos sur The Astonishing Tribe.
Noter aussi l’arrivée de la techno de la « réalité diminuée », qui permet de supprimer en temps réel des objets dans une vidéo (comme dans PhotoShop).
Attention donc à bien géo-tagger les contenus.
2011 sera l’année des tablettes ! Et pas que pour l’iPad !
Essai comparatif Webbmedia ici.
Évidemment, tous les regards sont tournés vers la Google TV et son OS Androïd.
Mais attention aussi aux fabricants de téléviseurs (Samsung, Toshiba, Vizio, Sony), aux fabricants de boites décodeurs, aux fournisseurs d’accès, aux différents intermédiaires. Et bien sûr à Apple (application iPad MyGeneration).
L’informatique dans les nuages va stocker nos contenus préférés.
Certaines tablettes sont capables d’écouter la télé et de donner du background pertinent !
La recommandation est de ne pas fournir des contenus à des seules fins de marketing. Pour l’instant, ces initiatives manquent de contenus….
Pour l’instant, les alliances et regroupements ressemblent à ça :
De plus en plus l’Internet des objets et les puces RFID éparpillent des tags et des étiquettes un peu partout dans le monde réel. Ces données pourront être reliées à nos vies personnelles.
Exemple de BodyMedia : un bracelet envoie toutes sortes d’informations pertinentes sur sa santé et se synchronise avec son ordi ou son iPhone tout au long de la journée.
Apple a déposé beaucoup de brevets autour de ces sujets.
—
Billet publié initialement publié sur Metamedia ; image CC Flickr rutty
]]>Chris Anderson fait partie des visionnaires de notre temps, il est le premier à avoir parlé de la “longue traine” (“The Long Tail“). Il est également l’auteur de “Free”, qui explique que nous sommes entrés dans l’économie du gratuit. Il est possible qu’il n’ait pas écrit d’article prônant la mort du web, mais le simple fait qu’on se demande s’il ne serait pas en train d’y penser, est révélateur des interrogations du moment sur l’avenir de l’Internet.
Et donc, notamment, des prochains investissements des médias.
L’évolution du marché mobile est sans équivoque. 92% de pénétration de la 3G en 2014 en Europe de l’Ouest (selon Morgan Stanley), multiplié par 4 selon Forrester qui prévoit une pénétration de l’Internet mobile de 41% (67% en 2009 pour l’Internet via un ordinateur).
Nous allons clairement vers la mobilité qui, sur le marché dominant des iPhones et des smartphones Android, se manifeste par une tendance à utiliser l’Internet via les applications, au détriment du web (du navigateur web).
Pour autant, la messe est-elle dite ?
Voici quelques pistes.
L’arrivée de l’iPad, qui réconcilie l’ordinateur avec la mobilité, continue de dynamiser le marché des applications. Mais il sonne également le retour du web. L’iPad est un excellent navigateur. Et bon nombre d’applications devenues indispensables sur iPhone en raison des limitations ergonomiques de son navigateur (liées au petit écran), ne le sont plus sur l’iPad. Les médias devraient donc réfléchir à deux fois avant de délaisser le web pour se ruer sur les apps.
Par contre il faudra s’adapter aux écrans, et aux usages de navigation sur tablette tactile.
Sur les tablettes, la bataille sera aussi celle des applications d’agrégation: l’ère des médias personnels, comme Pulse, Appolo, Flipboard ou The Early Edition, qui s’adapte à vos usages de lecture et à votre réseau social pour proposer une information de proximité et personnalisée, agrégeant plusieurs sources. Et qui vous accompagne où que vous soyez.
La question n’est finalement pas de savoir s’il faut investir dans une application ou dans un site web. Mais d’être capable d’organiser un média en un flux organisé qui accompagne l’utilisateur partout où il se trouve. Et sans rupture.
C’est le principal enjeu de ces prochaines années. L’avenir est aux médias capables de structurer leurs données, mais aussi l’interactivité entre les utilisateurs et leurs données. Aux médias capable de faire vivre leurs données sur les différents espaces de navigation (mobile, application mobile, les navigateurs des tablettes, des ordinateurs, mais aussi sur Facebook…). C’est à dire faire interagir données et utilisateurs sur un réseau qui sera de plus en plus indépendants de ses supports.
A voir, à ce propos, la conférence de Vin Cerf, l’inventeur de l’Internet, qui partage sa vision du futur. Il imagine une “connectivité omniprésente, qui augmenterait notre rapport sensoriel avec le monde réel”.
Car l’avenir réside bien dans cette connectivité permanente. Dans l’utilisation du réseau et de la technologie pour nous aider à interagir avec le réel. Ce qui nous amène peu à peu à faire disparaître les interfaces technologiques pour retrouver une interaction naturelle et intuitive avec les données réelles ou virtuelles.
La Wii de Nintendo, mais aussi le projet Natal (Kinect) de Microsoft, font peu à peu disparaître les manettes de jeu au profit de la reconnaissance gestuelle, via différents capteurs. Suivant la même tendance, l’iPhone efface la complexité de l’interface et nous fait retrouver des gestes qu’un enfant adopte intuitivement: tourner des pages, interagir avec notre environnement réel grâce à la réalité augmentée.
Si vous n’êtes pas convaincus par la disparition des interfaces, je vous invite à visionner cette démonstration incroyable d’un ingénieur indien, Pranav Mistry, diplomé du MIT: sa technologie (“SixthSense”) permet de faire disparaître l’outil ordinateur ou téléphone, pour permettre à l’utilisateur d’interagir avec les données partout où il se trouve.
L’avenir est donc bien à la structuration des données dans un univers de connectivité permanente qui s’affranchit des outils, pas à la guerre des supports. Le web est mort ? Peut-être. Le téléphone mobile ? Sans doute dans dix ou quinze ans. Peu importe.
Le web est mort ? Autant se demander si le papier est mort…
__
Billet initialement publié sur la Social NewsRoom de Benoît Raphaël.
Crédits Photo CC : Greg Marshall, Elliot Lepers, Martin U.
]]>Deux phénomènes, qui remettent de la structure dans des contenus fragmentés, redonnent du contrôle aux éditeurs sur l’accès, et nourrissent leur espoir de mettre fin au tout gratuit numérique.
Pour ces médias traditionnels, qui n’en finissent pas d’être chamboulés par la révolution de l’information, les nouveaux usages et la crise économique, l’idée est de tenter de retrouver une marge de manoeuvre, un ballon d’oxygène, pour leurs modèles économiques à bout de souffle, qui ne parviennent plus à financer les contenus capables de capter l’attention du public du 21ème siècle.
Dans le même temps se mettent en place les infrastructures mondiales, pour des connexions de masse, qui accroissent le volume d’informations, accélèrent leur vitesse de circulation et réduisent leur durée de vie dans un web de plus en plus social, personnalisé et instantané, et où les gens passent de plus en plus de temps, chez eux ou en déplacement.
La progression de cette toile de fond, qu’est l’Internet, n’est pas linéaire, mais bien exponentielle, même si le web s’est désormais fracturé, sous l’influence d’Apple, voire d’Amazon, avec leurs nouveaux univers d’applications.
Dans un monde numérique de flux, d’échanges permanents et nomades, de médias fragmentés, où les vieux modèles déclinent, et où l’information n’a jamais été aussi abondante, le défi est de retrouver une fonction de filtre pertinent grâce aux nouveaux outils numériques, pour délivrer l’information dont a besoin le public, là où il le souhaite et quand il le désire. Il est aussi de l’aider à trouver le signal dans le bruit, car les méthodes de découverte changent vite : recommandations, réseaux sociaux, agrégateurs, géo-localisation, listes ….
Qu’on le veuille ou non, bien souvent, la qualité d’accès à l’offre, l’expérience utilisateur, l’ubiquité, et donc la force du service, primeront sur le contenu. Bientôt, l’information sera délivrée en fonction du lieu où nous serons, ou sera directement reliées aux discussions que nous aurons avec nos amis.
Le défi, c’est aussi pour les journalistes, au magistère déclinant, d’accepter de perdre un peu d’autorité et de contrôle, pour être davantage en prise avec l’audience, car l’information voyagera désormais, avec ou sans eux. Il n’y a pas de pénurie d’informations et de contenus, bien au contraire, mais un manque de temps, et donc un besoin de plus en plus urgent d’un filtrage de qualité.
C’est enfin pour les dirigeants de média d’accepter que le web devienne un débouché essentiel, où il n’est pas question de repasser les plats : à eux de trouver les contenus et services différents, qui ne soient pas facilement copiables.
A ces conditions, le public continuera de payer comme il l’a toujours fait. C’est-à-dire pour l’accès à des contenus et des services, qui incluront de l’information de qualité, sélectionnée, disponible partout immédiatement et consommée de plus en plus en mobilité.
Dans cette crise systémique, des médias traditionnels, figés dans les vieux moules du passé, meurent aujourd’hui, alors que nous souffrons de… Boulimie d’informations. Tout simplement parce que les nouveaux offrent des contenus et des services que les anciens ne fournissaient pas, à des coûts beaucoup plus bas, et avec beaucoup plus de flexibilité.
Les anciens demeurent sur la défensive et ont toujours beaucoup de mal à s’ajuster à ce nouveau monde, où les vieux modèles se désagrègent plus vite que n’émergent les nouveaux.
Combien de ce qu’ils ont perdu dans la crise arriveront-ils à récupérer? Auront-ils le temps de s’adapter alors que les pressions pour réduire les coûts restent très fortes et que la rigueur risque de couper l’élan de la reprise? Quel est l’avenir des unités éditoriales en ligne qui poussent un peu partout?
Pour la presse des pays riches, tout, ou presque, continue d’être orienté à la baisse : le nombre de pages, la diffusion, l’intérêt des annonceurs, les revenus publicitaires, les effectifs. A eux seuls, les magazines américains ont vu s’envoler le quart de leurs pages de publicité l’an dernier.
Aux Etats-Unis, pour la presse quotidienne, la publicité, qui assure 80% des revenus des journaux, 2009 fut la pire année en près de 50 ans, avec des chiffres dantesques : le manque à gagner se monte à 10 milliards de dollars par rapport à 2008, déjà désastreuse. L’an dernier, sur le papier elle a encore chuté de 28%, sur le web de 12%, et les petites annonces, dont plus des deux tiers ont disparu depuis 2000, se sont de nouveau évaporées, au rythme de près de 40% en 2009.
L’accélération de la débâcle, qui s’était précipitée en 2008, semble un peu ralentir en ce début 2010. Les patrons de presse évoquent quelques bonnes périodes, puis, souvent hélas, de nouveau des trous noirs. La crise publicitaire est aussi structurelle. Côté papier, il n’y a plus grand chose à réduire: les coûts d’impression et de distribution ne baissent plus et les rédactions ont souvent fondu d’un tiers.
Ils avouent aussi avoir de plus en plus de mal à mettre en oeuvre cette migration vers le numérique, qui, d’une année sur l’autre, n’avance guère finalement. Même Microsoft perd des centaines de millions de dollars sur le web ! Car aujourd’hui, les meilleures places du nouvel écosystème média sont occupées par l’audience, les agrégateurs, les moteurs de recherche et les distributeurs ; non par les producteurs de contenus.
Quinze après l’arrivée du web grand public et la prise de conscience progressive de la démocratisation de l’écriture, tout le monde est aujourd’hui devenu un média. La quasi-suppression des barrières à l’entrée pour la publication et la distribution de contenus, a conduit agents politiques, économiques, sociaux, associatifs, culturels, humanitaires, religieux, sportifs, collectifs ou individuels, à prendre directement la parole, et donc à court-circuiter les corps intermédiaires, les médiateurs.
Comme d’autres grandes institutions du 20ème siècle, les médias ont beaucoup de mal à se réinventer. Comme à la Renaissance, une grande période de questionnements remplace une période de révérence.
Ce monde a changé : le réseau Internet englobe des parties de plus en plus significatives de nos activités et de nos vies! Nos vies personnelles et professionnelles passent moins par le papier que par l’écran.
La technologie aussi s’est démocratisée. L’infrastructure pour des connexions massives et en mobilité est en place. Le quart de la population mondiale est interconnecté par un réseau sans tête. L’ordinateur portable est passé devant le fixe. Des milliards de gens sont équipés de téléphones portables. Le mobile ne sert plus à téléphoner: l’échange de données y dépasse le transport de la voix.
L’Internet est sur soi, et plus seulement chez soi. L’internet mobile va dépasser l’Internet fixe. Son adoption par la population est huit fois plus rapide que pour le web. Tout ce que nous faisions à la maison ou au bureau, nous le faisons désormais en déplacement. Dans la rue, les gens ne parlent plus seulement tout seul, mais marchent, penchés en avant, le regard sur leurs écrans d’iPhone ou de Blackberry. Dans les cafés, les laptops sont ouverts, et bientôt les tablettes vont fleurir. La vidéo est consommée partout, via les smart phones et bientôt les lecteurs ebook.
Les DVD sont obsolètes, les CD jetés par les ados, à peine téléchargés, même les fichiers numériques vieillissent face au streaming. Un téléphone portable n’est plus d’ailleurs un simple appareil mais leur alter ego, une extension de leur personnalité, doté d’une bien meilleure mémoire ! Google a presque maîtrisé la traduction simultanée des conversations. La 3D arrive dans nos télévisions connectées au web, et bientôt dans nos mobiles…
Le multi-tasking, n’est plus une exception, mais devient la norme: l’accès à l’information, au savoir, voire à la culture est non seulement instantané, mais souvent réalisé en toile de fond d’une autre activité.
L’information est de plus en plus délivrée en flux, en courants, au fil de l’eau. Elle est stockée non plus dans nos disques durs ou nos serveurs, mais dans les “nuages“. L’extraordinaire succès des applications (à la iPhone) donne aussi un coup de vieux aux navigateurs, voire aux sites web eux-mêmes.
De plus en plus d’appareils différents sont utilisés par une même personne, pas nécessairement techno-béate ! Chaque mois, ou presque surgit une nouvelle rupture technologique : netbooks, smart phones, lecteurs ebook, iPad, 3D, réalité augmentée, etc…
Les réseaux sociaux en ligne prennent la place de la machine à café ou du bistrot. L’Internet et les mobiles ont ajouté une dimension d’expérience sociale à l’information.
L’Internet n’est donc pas qu’un lieu d’accès à la connaissance et au savoir. C’est désormais surtout un lieu de socialisation, un endroit où de plus en plus de gens vivent, échangent et communiquent. Une résidence secondaire ! Un lieu où l’information, partagée, est libre de circuler. Un endroit où les gens sont heureux de collaborer sans être rémunérés. Pour les jeunes, les réseaux sociaux sont désormais comme l’air qu’ils respirent ! La musique n’est plus seulement mobile, elle est devenue sociale.
Aujourd’hui, les géants des réseaux sociaux cherchent à prendre la place des anciens grands portails (Google, Yahoo, MSN…) comme porte d’entrée unique du web, et sont souvent plus utilisés que l’email pour communiquer. Ce sont des lieux privilégiés d’informations instantanées et partagées avec l’audience.
Ces “médias sociaux”, nouveaux médias de masse, où les contenus – rappelons-le -, sont produits, modifiés et distribués, au moins en partie, par leur audience, bousculent nos manières de travailler.
Après Google, Facebook (près de 500 millions d’utilisateurs) recentralise le web, en devient son premier site d’informations et le premier pourvoyeur de trafic, et sert d’identité numérique aux internautes pour circuler d’un site à l’autre. Twitter (100 millions) continue sa phénoménale expansion en devenant un outil de « broadcast », de diffusion publique et massive d’une personne vers une multitude, qui bat souvent les médias pour donner les infos importantes et les tendances. Skype compte plus de 500 millions d’utilisateurs, Mozilla et Wikipédia en ont 350 millions chacun.
Après des années d’efforts pour se placer le mieux possible sur Google, cet essor faramineux entraîne les médias traditionnels à privilégier désormais l’optimisation aux médias sociaux (SMO après le SEO): tout faire pour exister là où les gens vivent et échangent. Là où chaque information est accessible instantanément et peut être commentée en temps réel. Pour les médias, le temps réel a remplacé le “prime time”.
L’époque où chacun lisait chaque jour son journal imprimé arrive à son terme. Il devient d’ailleurs physiquement difficile de trouver des quotidiens en papier dans certains centre ville américains, voire même dans des grands hôtels aux Etats-Unis. Cette année, pour la première fois, des prix Pulitzer ont récompensé des sites web d’infos. Le règne sans partage des medias traditionnels, financés par de la publicité globalement inefficace est terminé.
C’est un nouveau temps de co-création avec les « consommacteurs » de l’information, de production pluridisciplinaire en réseau, d’innovations dans la distribution sur les réseaux. Cinq ans après son lancement, le site Huffington Post pourrait dès cette année dépasser le trafic du New York Times.
Le public, guidé par les progrès technologiques, réclame pertinence, instantanéité, facilité d’utilisation, localisation, connectivité, personnalisation de l’information, pour simplifier et enrichir sa vie. De l’information utile au moment présent et venant de multiples canaux.
Pour les médias traditionnels, victimes comme d’autres grandes institutions du 20ème siècle de la défiance du public, cette nouvelle équation gagnante signifie un défi compliqué: amener l’information là où les gens vivent, et essayer de la monétiser. D’où un bel avenir pour la publicité locale.
Les tablettes constituent la première vraie opportunité des médias depuis l’arrivée de la dépression, et le développement informatique le plus important depuis l’arrivée des micro-ordinateurs. Elles risquent bien de transformer trois industries qui convergent actuellement à grande vitesse (l’informatique, les télécommunications et les médias).
Elles ouvrent un nouveau marché (une dizaine seront disponibles en 2010) et vont créer une nouvelle relation entre le public et les contenus, entre le public et l’informatique connectée, notamment par ce lien tactile qui permet de surfer avec les doigts et ce web embarqué, qui vont devenir la norme pour les petits objets.
L’iPad d’Apple, vendu à plus d’un million d’exemplaires le premier mois, s’ajoute aux autres appareils nomades (téléphones, laptops, baladeurs). Avec un produit sui generis, Apple fort de plus de 100 millions de clients, tente pour la 4ème fois, une révolution des usages, après avoir déjà transformé l’industrie des ordinateurs individuels (MacIntosh), de la musique (iPod) et de la téléphonie (‘iPhone).
Il offre la combinaison unique des qualités de l’imprimé, du web et de la mobilité et y ajoute une interface tactile. Et surtout un design séduisant de l’appareil et de ses contenus.
Les tablettes seront-elles de nouveau des outils de distribution de masse de contenus contrôlés (comme les journaux, la télé, la radio) ? Feront-elles revenir l’audience vers de l’information payante ? Les éditeurs seront-ils à la hauteur de cette nouvelle — et peut être dernière — opportunité ? L’iPad sauvera-t-elle la relation entre publicité et éditeurs ?
C’est en tout cas une révolution qui s’annonce pour le monde de l’éducation et déjà un formidable appareil de consommation de média, pour de l’informatique de loisirs passifs (« couch computing »), et donc un nouveau canal de distribution. Nouvelle forme d’accès aux consommateurs pour les marques, l’espoir est d’y vendre un contenu professionnel et que les annonceurs suivent.
Attention toutefois à la tentation de « minitelisation » du web ! Ne réussiront que ceux qui investiront pour y créer une nouvelle valeur pour le consommateur. Les éditeurs doivent se mettre vite au web mobile et aux tablettes, réinventer leurs contenus, stimuler leurs journalistes, créateurs et développeurs et travailler avec les départements marketing pour proposer de nouvelles offres.
Encourageant une nouvelle forme de lecture numérique, elles peuvent encourager une nouvelle forme de journalisme, plus riche, plus longue et plus multimédia. En somme, plus magazine et moins instantanée, comme les web documentaires.
Mais attention, les éditeurs vont aussi être en compétition directe avec d’autres fournisseurs majeurs de contenus : groupes de télévision radios, jeux vidéos, pure players, etc…
Les tablettes ne sauveront donc pas les médias qui sont déjà sous la ligne de flottaison, qui sont déjà dépassés par le web fixe, ou n’ont pas les capacités d’investir, mais elles donneront un coup de fouet aux plus puissants. C’est pour eux l’une des meilleures nouvelles d’espoir depuis des années. Mais pour les autres, le coût pour générer des revenus supplémentaires sera trop élevé.
Il faudra aussi du temps pour que leur utilisation se répande dans le public et pour que les éditeurs y voient clair dans les modèles d’affaires possibles. Il faudra être patient. Le retour sur investissement ne se fera pas en 2010. Nous n’en sommes qu’au début du web mobile et des tablettes, même si les ventes de tablettes (iPad, lecteurs ebook…) devraient atteindre 12 millions d’unités cette année après 5 millions en 2099 et 1 million en 2008.
L’arrivée des tablettes, associée à l’espoir d’une nouvelle monétisation, arrive la même année que l’instauration, en ordre dispersé et sans consensus, de barrières payantes sur les contenus d’informations en ligne, annoncée en fanfare il y a juste un an, sans que personne ne puisse dire, à ce jour, si cette stratégie s’avérera …. payante !
Il semble qu’on s’achemine, en fait, vers de nouveaux modèles hybrides avec quelques certitudes: la fidélité à une marque est plus faible en ligne, où la gratuité est une habitude bien ancrée, et où seuls les contenus de qualité, rares, utiles et sélectionnés, pourront se vendre.
Mais pour l’instant, la prudence est de mise. Chacun surveille ses concurrents de peur qu’ils ne laissent, eux, tout gratuit, comme en ont décidé, en Grande Bretagne, le Guardian, le Daily Mail ou le Mirror, en face des murs que mettra en juin Murdoch autour de ses journaux, Times et Sunday Times. Il préfère de petites audiences qui paient à de grandes qui ne paient rien.
Aux Etats-Unis, le New York Times mettra en place en janvier 2011 un péage au compteur (paiement après quelques visites gratuites, comme le Financial Times). En embuscade, le Washington Post reste en mode « wait & see ».
Même si chacun sait que la publicité média ne reviendra pas à ses niveaux antérieurs, qu’elle ne financera plus une rédaction à Peshawar, rares sont ceux désireux de se couper d’audiences, souvent en forte augmentation.
Chacun sent bien aussi que ce type d’initiative se fait à contre-courant d’évolutions sociétales actuelles fortes : ouverture, partage, collaboration, coproduction, etc…
Une logique « freemium » semble donc l’emporter aujourd’hui associant des contenus gratuits (le plus souvent des informations généralistes partout disponibles) à des contenus uniques de niche, et des services de qualité, à valeurs ajoutées, payants. Comme l’information en mobilité (smart phones, tablettes), au risque d’accélérer le déclin du papier. Et, au lieu de faire payer tout le monde un petit peu (longue traîne), l’idée est d’essayer d’obtenir un peu plus de quelques uns. Tout un équilibre savant à trouver.
Surtout que l’enjeu n’est pas seulement de faire consommer des contenus existants, mais surtout de retrouver une nouvelle pertinence, et de ré-initier la relation distendue avec le public.
Les choses se compliquent aussi avec deux nouveaux phénomènes.
D’abord l’apparition ces derniers mois d’un nouveau modèle d’affaires sur le marché de l’information: l’industrialisation de la production de contenus avec de véritables usines (ou fermes) “low cost” produisant chaque jour à la chaîne des milliers d’articles “fast food” de médiocre qualité (textes, photos, vidéos), produits de manière indifférenciée par des pros et des amateurs en fonction des requêtes les plus populaires des moteurs de recherche. Objectif: accroître le trafic des sites d’infos et toucher un peu plus de publicité. Certains estiment qu’en jouant ainsi avec les algorithmes de Google, ces nouvelles firmes de média vont rendre encore plus difficile la recherche du signal dans le bruit.
Ensuite, l’arrivée d’un vrai risque de distorsion de concurrence sur Internet (où tout le monde converge pour offrir finalement un contenu multimédia identique) venant des grands groupes de l’audiovisuel public, qui ont des ressources sans commune mesure avec les médias privés.
Financés par des subventions ou des redevances, ces grandes maisons comme la BBC, l’ARD, la RTBF, etc… mettent en place des stratégies 360°(TV, Internet, mobiles) pour maximiser le nombre de contacts tout au long de la journée avec le public. Elles viennent concurrencer les sites web sur des contenus d’information généralistes, mais défendent la notion d’intérêt général et de bien public que le marché ignore. Faute de modèles économiques probants et dans un secteur en crise, les médias publics risquent bien de devenir plus importants d’ici 10 ans. Bruxelles risque quand même de s’en mêler de plus en plus.
Parions que même avec les tablettes et les murs payants en ligne, le génie Internet ne retournera pas dans la bouteille. Le web a atomisé et démultiplié les contenus. Le public a appris à surfer, explorer, découvrir et réassembler. Il n’y jamais eu autant d’outils et d’appareils pour les mettre en relation avec un nombre aussi grand de sources. Après un web de publication et de diffusion, nous avons un web social de flux, où le temps s’est accéléré et l’espace rétréci.
C’est sans doute la chance des médias traditionnels et des journalistes: remettre un peu d’ordre, trier, sélectionner, vérifier, relier, mettre en perspective, donner du sens, packager, personnaliser l’information et les données, qui sont le nouveau pétrole de cette économie post industrielle.
Dans un environnement plus complexe et moins linéaire, les groupes de médias doivent évoluer de manière flexible, dans une culture de l’expérimentation, car ils naviguent dans des eaux qui changent constamment.
Mais attention aussi à la tentation de diaboliser Internet comme en Chine, voire en Australie, où le contrôle s’accroît. L’Internet est à tous, comme la culture. Méfions nous des tentatives d’en restreindre l’accès. La frustration devant les chambardements en cours ne sert à rien, surtout si on continue de proposer des contenus et des produits du 19ème siècle!
Pour offrir la meilleure expérience dans une société de l’interaction, les médias devront réconcilier la dynamique sociale du web et des contenus de qualité. Et garder ce qui fait leur force : leur capacité et leur structure reconnue pour enquêter sur les terrains difficiles et vérifier l’information. Car ils restent récipiendaires d’une certaine confiance. Pour combien de temps ?
Nous ne sommes qu’au tout début de cette révolution de l’information et personne ne sait où elle va !
__
Billet originellement publié sur le blog d’Eric Scherer sous le titre “Remettre le génie dans la bouteille”.
Titre par Pierre France.
Retrouvez tous les autres cahiers de tendances d’Eric Scherer :
La nouvelle version sera bientôt disponible sur la soucoupe /-)
Crédits Photo CC Flickr : Dotpolka, Kevharb, Oberazzi, ShironeKoeuro, Observatoryleak, Needoptic.
—
Voici l’interview d’Eric Scherer réalisée par Damien van Achter pour le RTBFLabs :
]]>