29/07/2008

Université d’été du GFII à l'ESIEE

263211edd3f189e7383b8411210caca1.jpg Le 5 septembre 2008, pour la deuxième année, le Groupement français des industries de l’information propose à ses membres un rendez-vous de rentrée: l'université d’été du GFII. Ce séminaire se déroulera dans les locaux de l'ESIEE, l'école d'ingénieurs des sciences et technologies de l'information et de la communication située à Noisy-le-Grand.

Cette journée permettra aux membres de se rencontrer et d'échanger pour faire le point sur le marché de l’information professionnelle, dessiner les nouvelles tendances et évoquer quelques pistes prospectives. A cette occasion, le GFII a invité Ed Keating, Vice Président de la division Contenus de l'association américaine Software and Information Industry Association. La SIIA conduit de nombreuses études sur le secteur, aussi bien concernant les contenus professionnels que les outils logiciels, et mène des actions pour promouvoir et protéger l'industrie de l'information.


J’aurai le plaisir d’animer la session «Les outils de valorisation de l'information (moteurs de recherche, outils de veille, d'analyse...): panorama du marché, tendances et évolution du secteur
».

AMI Software adhère depuis de nombreuses années aux GFII comme à d’autres associations telles que SCIP France et l’ADETEM. Lieu d’échanges ente clients, fournisseurs et consultants, ces associations professionnelles sont indispensables pour partager des connaissances dans nos domaines d’activités qui sont nouveaux et où les points de références et de comparaisons restent complexes à trouver.

AMIs lecteurs, vous savez ce qu’ils vous restent à faire !

Pour plus de renseignements : GFII, 25, rue Claude Tillier, 75012 Paris, Tel: 01 43 72 96 52, Fax: 01 43 72 56 04, Mél: gfii@gfii.asso.fr

10/07/2008

Un job chez AMI !

393c415c9232637a61b549bbd57ad718.gif Vous êtes intéressé par l'Intelligence économique et l'analyse de l'opinion des internautes?

Vous voulez partager le succès de la société AMI Software?

Deux offres d'emploi pour des ingénieurs "services professionnels" sont à découvrir sur le site de l'Apec (annonces ref. 7537749-5417-5374 et 7537906-5417-5374) ou en cliquant directement sur

http://cadres.apec.fr/offres-emploi-cadres/0_7537749____0____offre-d-emploi-ingenieur-support-logiciel-h-f.html

http://cadres.apec.fr/offres-emploi-cadres/0_7537906____0...

ou en écrivant à emploi@amisw.com.

Internet n'a pas fini de nous étonner! Participez avec nous à cette fabuleuse aventure.

14:40 Publié dans Métiers | Lien permanent | Commentaires (0) | Tags : emploi

09/07/2008

Il pleut des moteurs…

0f0d5ce59248d33088efce196df65fcb.gif … de recherche, bien sur !

En l’espace d’une semaine, une actualité riche : Microsoft annonce le rachat du moteur PowerSet (petite start up californienne) (1), quelques français clament dans le Monde «Un Google à la française » (2) et le Monde Informatique nous livre les résultats d’une grande étude Forrester Research (3) où on apprend que seuls les moteurs américains tiennent la route!

Quoi de neuf pour une telle avalanche de nouvelles? En fait pas grand chose sauf qu’en y réfléchissant, d’une part, on peut s’amuser et d’autre part, trouver plus intelligent à faire.

La dernière news est évidemment la plus drôle. Je me souviens dans un passé professionnel pas si ancien que la société pour laquelle je travaillais rêvait d’être dans le «magic quadrant» de Gartner ? Que faire ? La réponse a été facile à trouver : en finançant une étude à 125 000US$, nous nous donnions les moyens d’être correctement évalués et positionnés. Ce qui fût fait! La question posée est bien évidemment de savoir ce qui se serait passé si nous n’avions pas financé cette étude…. Depuis, j’attache beaucoup moins d’importance aux cadrans magiques.

Ensuite, j’ai beaucoup aimé la lecture de l’article du Monde, écrit par certains de mes confrères, au demeurant des entrepreneurs respectables. Beaucoup aimé car l’article m’a rappelé mon enfance à la campagne où j’écoutais à la radio les étapes du Tour de France et l’eternel second, Raymond Poulidor, rêvant de devenir maillot jaune avec assez peu de succès, devant le belge Eddy Merck. C’est assez curieux cette manie de vouloir toujours suivre les autres. Sans comprendre qu’avant de déloger Google, l’effort va être conséquent et bien évidemment pas au niveau de quelques PMEs françaises même richement subventionnées. Dans le Google à la française, il y a indéniablement du Poulidor !

De ce point de vue, le rachat de Powerset par Microsoft est autrement plus intéressant. Evidemment que Microsoft n’a pas racheté Powerset pour son moteur; il y a quelques mois il s’était déjà offert le moteur FAST qui est une société d’une autre envergure. En revanche, il s’est offert une technologie d’analyse sémantique. Pourquoi? Certainement pas pour faire Google. Mais plus vraisemblablement pour faire ce que des PMEs, notamment françaises, proposent c’est-à-dire d’autres applications que le «je pose une question, j’ai des réponses» googlien. Il y a d’immenses possibilités de valorisation des informations du Web. Et Microsoft y travaille.

Chez AMI Software, nous avons choisi de développer des logiciels de veille et de capitalisation d’informations stratégiques et des produits pour le suivi et l’analyse des opinions des internautes. Il ne s’agit donc pas uniquement de «moteur de recherche» mais aussi «d’automate de collecte», d’outils de text mining et d’analyse sémantique… Bref, tout un champ nouveau d’applications pour lequel les PMEs françaises sont très performantes. Au lieu de jouer les Poulidor de Google, mieux vaut investir dans des domaines nouveaux de l’Internet où la compétition est encore possible. C’est ce que nous cherchons à faire avec un peu de créativité et la confiance de nos clients.

(1) http://www.vnunet.fr/fr/news/2008/07/02/moteur_microsoft_...
(2) http://www.lemonde.fr/opinions/article/2008/07/07/un-goog...
(3) http://www.lemondeinformatique.fr/actualites/lire-autonom...

21:45 Publié dans Humeurs | Lien permanent | Commentaires (0) | Tags : Google, Powerset, Microsoft

26/06/2008

Le SBA à l’européen … pas pour tout de suite !

beffef260d3e63fc4df9f04a602f9419.jpeg Le SBA, ou Small Business Act est un vieux serpent de mer qui fait rêver les dirigeants de PMEs françaises depuis bien longtemps.

De quoi s’agit-il ? D’appliquer en Europe, une législation américaine datant de 1953 qui oblige les grands donneurs d'ordre américains, notamment l’administration, à réserver 23% de leur achat aux PMEs américaines.

Au pays du libéralisme, on peut difficilement imaginer une mesure plus protectionniste ! Que tout le monde, les Européens en tête, s’accorde à qualifier comme élément clé du succès des PMEs américaines, notamment du secteur informatique (1). C’est un secret de polichinelle que nombre de nos concurrents américains ont acquis une taille significative grâce à de très grands contrats du Pentagone ou de l’armée américaine qui leur étaient «réservés». Ces commandes, souvent faites sur des «produits en devenir», représentent en fait une énorme capacité d’investissement en recherche et développement.

En Europe, et notamment en France, la philosophie est plutôt de réserver ces grands contrats aux grandes entreprises (les petites étant jugées trop petites et donc peu pérennes, sic !). Et éventuellement, à aider les PMEs par un jeu de subventions venant d’organismes comme l’ANVAR ou ITEA, etc.

Si cette aide est bien évidemment précieuse, on peut se demander si le modèle américain (qui correspond de fait à une forme de subventions) n’est pas plus efficace : non seulement, le contrat est un financement garanti donc une subvention mais le donneur d‘ordre apporte sa caution et donc une crédibilité commerciale à la PME que ne pourra jamais donner une subvention. Et souvent cette caution des grands donneurs d’ordre américains, cette référence, nous est opposée chez les prospects français qui fort légitimement y sont sensibles.

En attendant, le SBA à l’européen est manifestement reparti dans sa cachette !

(1) Voir l'article du Monde publié le 25 juin: "Faute d'accord entre les pays membres, le soutien de Bruxelles aux PME restera symbolique" disponible sur www.lemonde.fr

21:35 Publié dans Métiers | Lien permanent | Commentaires (0) | Tags : Smal Business Act

17/06/2008

Marketing 2.0, l’intelligence collective, par François Laurent. Editions M21.

«Marketing 2.0» est un livre militant. Militant car écrit par un homme de convictions, qui les défend. On peut ne pas les partager toutes, ce qui est mon cas. Mais le livre de François a un énorme avantage, celui de la nouveauté ou plus précisément de présenter de nombreuses idées nouvelles qui nous incitent à une véritable réflexion. De ce point de vue, le titre est en décalage avec le contenu: «marketing 2.0» peut laisser penser à un nouveau «machin 2.0», la tendance actuelle étant d’utiliser cette numérotation, issue des pratiques de l’industrie logicielle, pour n’importe quoi.

Bien au contraire, le livre est ambitieux et n’est pas l’annonce de la sempiternelle « révolution numérique » version 2.0. François, en homme de marketing averti, replace l’essentiel au centre de sa démarche, à savoir le client, tantôt consommateur tantôt citoyen. Et il constate que le développement des technologies et des usages dits de « web 2.0 » (oh que les informaticiens sont poétiques) a induit, accéléré un changement important du comportement de ce client dans son rapport aux marques et finalement aux « gouvernants ». Le terme «Empowered consumer» volontairement conservé dans sa forme anglaise (1) exprime bien cette nouvelle donne, confirmée par de nombreuses études : ce nouveau consommateur déterminera ses choix très souvent par rapport à ce qu’il apprendra de ses pairs. Le discours lénifiant de la marque est de moins en moins admis. Et il est bien évident que dans ce cadre, Internet et surtout les innombrables possibilités d’échanges et de communication de type «many to many» qu’il offre, a considérablement accentué ce phénomène. Posez-vous la question suivante : la dernière fois que vous avez fait un achat, par exemple un appareil électronique, qu’avez vous fait ? Et en réfléchissant à la réponse, vous verrez que François Laurent n’a pas tort quant il parle de changement profond!

Une autre dimension intéressante est celle liée à la difficulté des industries à s’adapter à ces changements rapides. Le chapitre sur l’industrie du disque est particulièrement savoureux. Avec l’ironie qu’on lui connaît, François rappelle que la réaction de l’industrie du disque, aux profonds bouleversements induits par le MP3 et Internet, a été de faire des procès à ses clients ! Et souvent à des gamins ou à des mères de famille ne se rendant pas bien compte qu’en téléchargeant de la musique, ils commettaient un grave crime. Quoiqu’on pense du sujet, quand un industriel fait des procès à ses clients, c’est mauvais signe ! Qui plus est en réaction à une évolution technologique.

François rappelle quelques évidences : 1) Mozart n’avait pas de maison de disques 2) le CD n’est qu’un support ; le MP3 en est un autre qui s’avère plus performant 3) les disquaires «off» ou «on line» ne sont qu’un canal de distribution; il en existe d’autres comme le téléchargement 4) il y aura toujours place pour des managers qui prendront un risque financier pour faire connaître par les moyens de communications appropriés des musiciens dont ils apprécient le talent 5) Internet, le MP3 et la facilité de téléchargement ont offert de nouvelles possibilités, permettant aux moins connus d’accéder à une reconnaissance, remplaçant l’artiste et ses prestations au centre : au donnant l’accès gratuit à ses nouvelles chansons, Prince a rempli tous ses concerts de l’été, à raison de 20 000 participants par session.

Il est vrai que dans ce nouveau modèle, les maisons de disque peuvent se poser la question de leur valeur ajoutée et réfléchir à leur indispensable évolution. Et elles gagneraient à le faire vite !

Cette histoire me rappelle celle de l’image numérique, alors qu’Internet commençait à se développer. En 1997, je travaillais pour une entreprise qui fabriquait des logiciels de traitements d’images médicales. A l’époque, nous discutions avec les ingénieurs de Kodak qui nous prenaient pour des ahuris, nous expliquant que le numérique n’arriverait jamais à la hauteur du film. Quelques mois après, les actionnaires de Kodak rachetait Imation, la filiale numérique du groupe 3M et commençait à organiser les plans de départ des «spécialistes de l’argentique». La suite de l’histoire est connue : il suffit de visiter une FNAC pour constater que les grands noms actuels de la photographie ne sont plus ceux d’hier. L’année dernière, j’ai découvert avec une certaine stupéfaction que Leica était devenu le fournisseur d’objectifs de Panasonic et achetait, sur le marché, des capteurs pour ses propres boitiers. Il y a 20 ans, Leica était la Rolls des appareils photos et Panasonic un marchand d’aspirateurs et de postes de radio!

Il y a fort a parier que beaucoup de labels de maisons de disques vont connaître le même sort! Le livre de François nous explique très bien pourquoi.


(1)François écrit en français, qui plus est, agréable à lire. Il ne sombre pas dans le «franglais» genre branché. Ne cherchez pas de «relevant» ou de «consistant»… il n’y a en pas ce qui est rare dans ce type d’ouvrage. L’absence de traduction de «empowered consumer» montre la difficulté à trouver, dans notre langue, le concept correspondant. Un beau sujet de réflexion à traiter avant que le terme passe dans l’usage courant comme l’est le mot «marketing» et dont la traduction officielle «mercatique» me fait toujours sourire.

02/06/2008

I Expo suite : « Veille image et stratégie de communication»

2def2be6ba26e06648f0ec36b4fb44f4.jpg I Expo est un événement incontournable pour toute personne s’intéressant à l’information professionnelle et plus généralement aux réseaux d’information et à Internet.

L’édition 2008 a été marquée par l’organisation de plusieurs sessions autour de l’image des entreprises sur le Net et de l’importance qu’avait le Réseau dans la définition des stratégies de communication des entreprises.

Caroline Faillet de l’agence Boléro (www.bolero.fr) et moi-même avons eu le plaisir de participer à la session « Veille image et analyse de la résonance médiatique : retours d'expériences » au cours de laquelle nous avons exposé « Les sept bonnes raisons d'analyser les opinions des internautes pour élaborer des stratégies d'actions communautaires. ».

Certaines sont évidentes pour les lecteurs de ce blog, comme par exemple, le constat que « beaucoup s’expriment sur Internet » et qu’il est devenu indispensable pour une entreprise de mesurer l’intérêt que manifestent les internautes à son sujet.
Moins convenu est l’idée que « l’avis de tout internaute est digne d’intérêt ». En effet, de nombreux acteurs du domaine expliquent que seul l’avis des « internautes influents » doit être pris en compte, les autres n’étant que peccadilles. Ce raisonnement s’appuie les méthodes issues de l’analyse de la presse à Internet : on s’intéresse aux grands journaux ayant un fort lectorat, la « feuille de choux » locale étant sans importance.

Ce raisonnement est erroné pour plusieurs raisons.

Constatons d’emblée que si le nombre de lecteurs d’un journal est assez bien mesuré par l’OJD, la notion d’internautes influents et autres bloggeurs d’autorité est très discutable (1).

De plus, dans le cas d’Internet et du Web 2.0, le lecteur est aussi rédacteur et accessoirement consommateur et électeur. Le mettre sur le même plan qu’un journaliste professionnel est donc sans objet, la comparaison n’ayant pas de sens. Demandez à un directeur marketing quel est son avis sur l’importance de commentaires désastreux de consommateurs postés sur un forum à propos de son produit. Il sera beaucoup plus inquiet de leur impact que de celui d’un « bon article » dans un bon journal !

Enfin, Internet est une place de village… planétaire où tout se sait très vite. Le blog d’un internaute résidant dans un petit village du Quercy a potentiellement autant de visibilité que celui d’un parisien branché. Il y a pléthore d’exemples qui le montrent dont un très causasse qui est la mésaventure arrivée à Hasbro, l’éditeur du Monopoly. Voulant faire une opération de marketing participatif, Hasbro a proposé aux internautes de choisir le nom des cases de la prochaine édition, en indiquant des noms de ville. Ce que n’avait pas anticipé l’éditeur est qu’un illustre inconnu d’un petit village du Quercy a réussi à arriver premier en utilisant tous les ressorts d’Internet. Sauf que le petit village s’appelle … Montcuq et qu’Hasbro ne semble pas apprécier la plaisanterie gauloise (2), l’obligeant à ne pas respecter son engagement. Il est évident qu’en faisant abstraction des « petits sans importance » Hasbro a complètement échoué dans sa stratégie de communication.

La difficulté, notamment technique, est justement de capter les opinions des quatre millions d’internautes anonymes, de les organiser et de les analyser. Opération très complexe car il s’agit de trouver des pépites dans un grand tas de sable, et beaucoup plus complexe que de suivre quelques centaines voire milliers de blogs « autorisés ». C’est le pari que nous faisons avec AMI Opinion Tracker !

(1) voir dans ce blog le billet du 23 02 08 «Influence, audience et PageRank. »
(2) voir sur www.intelligencecollective.info, le billet du 11 03 08 de François Laurent « Monopoly, le buzz dans le buzz »

23/05/2008

AMI à I-expo - 28-29 mai 08

0d95f081e2a17a3f15a29b1870870be7.pngAMI à I-expo des 28 et 29 mai au parc des expositions de Paris-Versailles (stand 6E4).

Vous pourrez y découvrir la nouvelle version 4.0 de la la solution AMI Enterprise Intelligence dont les capacités en terme d'analyse de l'information et de diffusion ont été largement enrichies. Cette solution qui est aujourd'hui résolument tournée vers l'aide à la décision à fin d'action est considérée comme la solution la plus complète du marché en matière d'intelligence économique.

Vous pourrez également découvrir AMI Opinion Tracker, le tout nouveau logiciel destiné à l'observation et l'analyse de l'opinion public et plus précisément des discours des citoyens et des consommateurs. Avant, je vous conseille, si vous ne l'avez pas déjà fait, de visiter le blog collectif www.intelligencecollective.info qui présente de nombreuses applications de ce produit.

Afin d'échanger concrètement sur ce sujet, François Laurent, Directeur de ConsumerInsight et Vice-Président de l'ADETEM, sera sur notre stand le jeudi 29 mai à 11H30, après la conférence plénière intitulée "De d'étude de l'image de marque à la veille de l'e-réputation" pour une séance de dédicace de son nouveau livre : " Marketing 2.0 – l’intelligence collective". Une coupe de champagne vous sera servie à cette occasion.

J’aurais aussi le plaisir de participer à l’atelier du 29 mai de 14h à 17h sur le thème : "Veille image et analyse de la résonance médiatique : retours d'expériences" avec Caroline Faillet, Directrice Associée de l'Agence Boléro.

Alors rendez-vous stand stand 6E4 où toute l'équipe AMI Software sera ravie de vous accueillir.

24/04/2008

Internet 2 : « Building a Faster Internet»

78d6fc6452a6792d72b2a7a59d298c31.jpeg Encore un « 2.0 » !

Dans le cas présent, ce nouveau nom, qui est d’ailleurs une marque déposée, n’est pas à confondre avec un nouvel avatar du Web 2.0. Il s’agit d’un sujet très sérieux. Un groupe d’universités américaines a créé le consortium qui porte ce nom et dont on trouve une présentation des travaux sur le site www.internet2.edu/

Ce consortium n’est pas nouveau ; en revanche, les résultats opérationnels qu’il commence à obtenir attirent particulièrement l’attention. L’hebdomadaire américain Newsweek en a offert un Digest dans son numéro de 29 mars 2008, disponible en ligne sur « www.newsweek.com/id/129639 ».

De quoi s’agit-il ? D’une nouvelle norme de transmission de données pour Internet. Jusqu’à présent, tous les réseaux informatiques, notamment Internet, exploitent un mode de transmission dit «par paquets». Lorsque vous envoyez un document par le Net (un mail par exemple), celui-ci est «découpé» en paquets élémentaires qui sont envoyés séparément sur le réseau et concaténés en fin de chaîne afin que l’ensemble soit livré à votre destinataire. Chaque paquet fait l’objet de contrôle pour s’assurer de l’intégrité de la transmission et donc qu’aucune donnée n’est perdue ; il en est de même sur l’ensemble du document reconstruit.

Ce modèle parfaitement adapté au réseau «cuivre» (hérité, pour l’essentiel, de la téléphonie) a atteint ses limites bien que les ingénieurs aient réussi à en tirer le maximum avec des transmissions comme l’ADSL. De façon très imagée, on peut comparer ce mode de transmission au système de feux tricolores qui régule la circulation urbaine, chaque flot de véhicules étant un paquet.

Que proposent nos universitaires américains ? Pour poursuivre avec notre parallèle urbain, imaginez que l’Avenue des Champs Elysées ne soit plus régulée par des feux tricolores à chaque carrefour, mais qu’un dispositif installé Place de la Concorde libère complètement l’avenue (donc tous les feux au vert) pour permettre à des véhicules ultra puissants de la remonter en une fraction de seconde. Et en allant jusqu’au bout de cette image, ce dispositif permettrait à ces mêmes véhicules ultra-puissants de se déplacer d’un bout à l’autre de leur trajet, en une seule fois, sans arrêt, bénéficiant d’une route personnelle et sécurisée. C’est exactement l’idée de nos chercheurs sachant que dans notre modèle, les voitures ultra-puissantes sont en fait le réseau lui-même qui est constitué de fibres optiques autorisant des débits gigantesques de l’ordre de 10 gigabits par seconde.

Le résultat : les chiffres données par Newsweek parlent d’eux-mêmes : « Télécharger un film vidéo en haute définition via une connexion classique à 4,5 Mb par seconde prendrait 3 heures. Avec un réseau Internet2, à 10 Gb par seconde, la même opération prendra 5 secondes. Et il s’agit de résultats temporaires puisque les vitesses semblent suivre la loi de Moore avec un doublement tous les 18 mois, voire moins.

Il est évident que ce projet est à suivre avec la plus grande attention et qu’il ne s’agit pas d’une lubie de techniciens. On peut regretter qu’aucune université européenne n’y soit associée mais il est vrai que le réseau Internet est toujours sous l’unique contrôle du Département du Commerce américain.

Une consolation : les premiers à tester cette innovation seront les chercheurs du CERN sur la frontière franco-suisse. Tiens, on dirait bien un retour aux sources puisque ce sont des chercheurs du CERN qui ont inventé le Web…. notamment Tim Berners-Lee et Robert Cailliau en 1989 http://fr.wikipedia.org/wiki/Tim_Berners-Lee.

Alain Beauvieux

L’essentiel des communications est en anglais ; quelques articles en français, pas très récents, en tapant « Internet2 » sur Google.

07:20 Publié dans Métiers | Lien permanent | Commentaires (0)

19/04/2008

Blogs: qui sont les lecteurs ?

bd3e6ccd35a4793f592993abae849725.jpeg Tout le monde parle des bloggeurs, le néologisme n’étant même plus détecté comme une faute par mon correcteur orthographique.

Mais qui sont les lecteurs? On peut espérer que ce ne sont pas les mêmes!

Le site de l’Atelier se fait l’écho d’une recherche intéressante que vient d’initialiser l’University of California Irvine (http://www.uci.edu/).

Des premiers résultats, il ressort que « la lecture régulière d'un blog devient une habitude chez l'utilisateur » et que « les utilisateurs disent ressentir une certaine responsabilité vis-à-vis des blogs qu'ils fréquentent. ».

Lire l’ensemble du billet sur
http://www.atelier.fr/usages/10/10042008/blog-lecteur-university-of-california-irvine-36349-.html

09/04/2008

AMI Opinion Tracker, une stratégie industrielle réussie !

b96d899f8d9c95c6e6fe22621c064bf2.jpg Lundi 7 avril était un jour important chez AMI Software qui lançait son nouveau produit AMI Opinion Tracker. Opération réussie puisque plus de 120 personnes, professionnels des études et du marketing, ont assisté à la soirée.

Comme son nom le laisse supposer, ce logiciel est destiné au suivi et à l’analyse de l’opinion publique sur Internet. Nous nous sommes faits largement l’écho de ce projet dans ce blog et le lecteur pourra trouver sur www.intelligencecollective.info de nombreuses contributions à ce sujet.

Ce produit est le résultat d’un travail entre plusieurs acteurs ayant une culture et des métiers différents et complémentaires, en quelque sorte, de l’intelligence collective appliquée! Premièrement, AMI Software a apporté son savoir-faire industriel et sa technologie. Deuxièmement, plusieurs annonceurs ont été associés à la réflexion qui a conduit à la définition fonctionnelle du produit. Et enfin, de très nombreux échanges ont eu lieu avec les différents acteurs du domaine des études comme, par exemple, les Instituts LH2, Repères, …ou des agences de communication afin de valider l’ergonomie du logiciel. Cette approche est bien évidemment gage de succès car elle permet de faire bénéficier AMI Opinion Tracker des meilleures compétences.

Ce travail est aussi le fruit d’une stratégie industrielle d’AMI Software qui n’est pas fréquente dans le domaine de l’édition de logiciels. En effet, fin 2005, nous avons lancé une plateforme logicielle AMI Base Server qui permet de connecter des modules applicatifs représentant autant de fonctionnalités : moteur de recherche, outils de cartographie, gestionnaire de documents, …Cette approche est rigoureusement la même que celles des constructeurs automobiles qui concentrent leur effort de développements autour de «banques de composants» et de «plateformes communes». Le même moteur est installé sur des véhicules de gammes différentes et la même plateforme est utilisée par plusieurs modèles y compris de marques distinctes.

Cette stratégie a une double conséquence : d’une part, il nous est très facile de concevoir et de développer un nouveau logiciel comme AMI Opinion Tracker, qui fait suite à AMI Enterprise Intelligence et AMI Knowledge Discovery, chacun des produits étant parfaitement adaptés à un segment de marché, comme peut l’être une voiture ; d’autre part, nous apportons à nos partenaires les compétences et les outils qui leur manquent pour aborder les nouveaux marchés du Web, et ceci au grand bénéfice de leurs clients qui connaissent la compétence professionnelle de leurs interlocuteurs.

Je suis personnellement surpris par la floraison actuelle de «spécialistes» nés du boum du Web 2.0 : un jour, il sont éditeurs de logiciels, le lendemain, spécialistes des études, le troisième jour, vendeurs de données, etc.

Ceci me rappelle l’époque de la bulle Internet où d’autres «spécialistes» se lançaient dans les affaires sans bien souvent savoir ce qu’ils vendaient ! La suite tout le monde la connaît.

Le vieil adage «à chacun son métier» reste d’actualité. Dans notre cas, nous avons choisi le nôtre depuis longtemps et entendons bien ne pas en changer. Pour le bonheur de nos clients et de nos partenaires qui connaissent le leur.

21/03/2008

"Les marchés sont des conversations" : écoutez-les!

15e1bca730251648780ecdebd6d92e51.jpg
Jamais citoyens et consommateurs ne se sont tant exprimés : sur la mode, les élections, les yaourts, la téléphonie mobile, leurs amis, leurs patrons, etc.

La France est devenue un immense Café du Commerce où tout un chacun s’exprime librement, à son rythme … et facilement !

Où des millions d’inconnus parlent de vous, de vos produits, de vos manières d’agir : le Web bruisse de partout !

Juste un petit calcul : on estime – hypothèse basse – la blogosphère regroupe 3 millions de blogs, sans même parler des SkyBlogs ; chaque blogueur – blogs d’autorité et long tail – touche raisonnablement en moyenne environ 2000 visiteurs par mois ; et publie environs 200 papiers par an – toujours en moyenne, certains sont nettement plus prolixes !

Ce qui donne dans les 600 millions de documents à traiter … et 24 milliards de contacts par an !

Une puissance de feu gigantesque … et une somme indigeste de documents à traiter – pour les seuls papiers postés sur les blogs, car il ne faut pas oublier les forums, les commentaires laissés au gré des lectures sur les blogs et les sites médias, etc.

Difficile d’analyser tout cela à la main sauf à y passer quelques nuits blanches !

Ou utiliser AMI Opinion Tracker, le nouvel outil d’AMI Software – et seul outil – permettant de :

* Découvrir tout ce qui se dit sur le Web,
* Le suivre au quotidien,
* L’organiser et de l’analyser pour le rendre opérationnel.

En un mot d’écouter toutes les conversations de la toile et d’en extraire le sens profond.

Venez découvrir en avant première AMI Opinion Tracker,

Le 7 Avril 2008 à 17h30 heures

à la Résidence Maxim's


La présentation sera animée par Thierry Maillet, chroniqueur au Nouvel Économiste et auteur de Génération Participation et François Laurent, Directeur du ConsumerInsight. Elle sera suivie d’un apéritif.

Réservez dès maintenant par mail à seminaire@amisw.com

Pour en savoir plus sur l’analyse discours des citoyens et des consommateurs sur le Net, au travers de points de vue et d’analyses de cas concrets, de retours d’expériences, découvrez également le nouveau blog collaboratif : http://www.intelligencecollective.info/

Résidence Maxim's - 42, avenue Gabriel – 75008 Paris.
Métro : Champs Élysées Clemenceau
Parking : Rond-point des Champs-Élysées

17/03/2008

Faut-il brûler Wikipedia ?

621ded17a53aa027b2ae273697c4cce5.jpgLa polémique n’est pas nouvelle et j’avais abordé ce sujet dans ma contribution du 7 novembre (voir «archives» sur ce blog).

En revanche, il est assez surprenant que ce titre soit celui de la page 2 du journal Le Monde du 15-16 mars (*) où Bertrand Le Gendre consacre une longue analyse à ce sujet. Ses conclusions sont assez proches des nôtres notamment lorsqu’il indique «La bataille continue pourtant de faire rage entre ceux qui accusent Wikipédia d'encourager les élèves et les étudiants à "copier-coller" et ceux qui saluent dans Wikipédia l'émergence d'une nouvelle écologie de la connaissance, à laquelle il vaut mieux préparer les jeunes générations plutôt que de diaboliser son succès.»

Il est aussi surprenant que des hommes comme Pierre Assouline dont le travail de biographiste ne peut que susciter l’admiration et rivalise avec son talent de romancier, définit Wikipedia comme «démagogie ambiante, qui consiste à dire aux gens: Vous êtes des encyclopédistes si vous le voulez». Preuve s’il en est besoin que des esprits pourtant très éclairés ont du mal à intégrer ces nouvelles formes d’échanges et de travails collaboratifs dont Wikipedia est l’exemple le plus connu.

Par ailleurs, l’article de Bertrand Le Gendre apporte des éléments factuels intéressants. Par exemple, il indique «En décembre 2007, Wikipédia a marqué un nouveau point contre ses détracteurs. Le magazine allemand Stern a publié les résultats d'une enquête portant sur cinquante articles piochés au hasard dans Wikipédia, version allemande, et dans l'édition en ligne de l'encyclopédie Brockhaus, dont l'accès est payant. Exactitude, clarté, exhaustivité, actualisation : le cabinet indépendant chargé de l'enquête a tout passé au crible. Dans 43 cas sur 50, Wikipédia l'a emporté». Cette étude confirme les résultats de celle réalisée par la revue Nature et que je mentionnais dans ma contribution du 7 novembre 07.

Récemment, une directrice de communication me demandait «mais finalement tous ces blogs et wikis, n’est-ce pas un phénomène de mode ? Qui va disparaître dans quelques mois.» Mode, autodafé, … Comme toujours, ce qui est nouveau n’est pas toujours simple à comprendre. Mais le temps va faire son œuvre.

Alain Beauvieux


(*) http://www.lemonde.fr/archives/article/2008/03/15/faut-il-bruler-wikipedia-par-bertrand-le-gendre_1023287_0.html

22:15 Publié dans Lu et Vu | Lien permanent | Commentaires (1) | Tags : Wikipedia, Le Monde

23/02/2008

Influence, audience et PageRank.

464861d0ef086e4026fa0a8c7a5547cf.jpg
Un point est souvent débattu qui est celui de l’influence réelle d’un blog (ou d’un site), cette notion étant souvent confondue avec son audience voire son «PageRank». Une illustration amusante a été donnée par Caroline Faillet de l’agence Boléro sur le blog collectif www.intelligencecollective.info dans son billet sur «les noix de lavage» (1).

L’audience est souvent assimilée au «PageRank», mesure inventée par Google qui est un coefficient numérique qui traduit essentiellement le nombre de liens qui pointe vers ce site. Une description détaillée est disponible à
http://www.webrankinfo.com/google/pagerank/pagerank.php
Le lecteur pourra aussi se reporter à l’article de Stéphane Poirier (2) auquel nous avons emprunté l’illustration de ce post.

Mesurer l’audience par ce biais est donc se limiter à un calcul de «tuyauterie» : plus de liens pointent vers le site plus celui-ci est jugé représentatif. Sans s’intéresser à ce qui circule dans ce lien, sans preuve d’ailleurs qu’il y circule quelque chose ! On comprend aisément que quelques agences se soient spécialisées dans ce qui s’appelle pudiquement le « référencement » et qui finalement consiste à créer, par tous les moyens possibles, le maximum de liens vers le site dont on veut augmenter le PageRank. Que ces liens aient un sens n’a pas d’importance ! Et là est la limite du PageRank et de cette tuyauterie artificielle.

Des travaux sont menés afin de préciser la notion d’audience, en considérant que le PageRank est un critère à prendre en compte, parmi d’autres (les inconnus ont rarement de l’audience). En particulier, nous réfléchissons chez AMI Software à des critères comme le nombre de commentaires, la «vivacité» du blog (fréquence de mise à jour, longueur du texte, etc.). Chacun comprendra qu’il s’agit de «secrets de fabrication» qui ne sont pas nécessairement détaillés mais qui au final aboutissent à un coefficient d’audience qui est plus réaliste que le simple PageRank.

Et l’influence dans tout cela ? Si l’audience d’un site, au sens où nous l’avons définie, est une condition nécessaire, elle n’est pas suffisante pour caractériser son influence. Je peux parfaitement participer à une discussion sans être influencé par aucun des arguments de celui qui la mène. C’est une évidence dans la vie courante et il n’y a pas de raison qu’il n’en soit pas ainsi sur Internet.

La question posée est bien évidemment de mesurer en quoi un élément d’un discours est repris par d’autres. Nous avons mené récemment une étude avec l’Institut LH2 sur ce qu’il est convenu d’appeler l’affaire de la Société Générale. Dans la grande confusion des messages, le concept de «bouc émissaire» est apparu dans de premiers blogs. Celui-ci a été repris par d’autres bloggeurs, et dans ce cas, il est légitime de parler d’influence. Evaluer le nombre de ces reprises peut conduire à une mesure de l’influence du premier blog qui a lancé cette idée. En revanche, le lecteur percevra assez vite les limites de cette approche pour un logiciel. En effet, comment déterminer automatiquement qu’un bloggeur lisant «Jérôme Kerviel, bouc émissaire» est influencé lorsqu’il écrit dans son billet «Kerviel, le nouveau Dreyfus de la banque». Avant qu’un logiciel y arrive, il va falloir sacrément cultiver nos ordinateurs ! Comme quoi, les analystes ont encore de beaux jours devant eux.

(1) http://intelligencecollective.blogspirit.com/archive/2008...
(2) http://lesaffairesweb.blogspot.com/2007/10/larry-pagerank.html

10/02/2008

Déficit commercial, défaitisme et PMEs

46284cda09bbc7d76532d99463e62eca.gif Si ce blog s'intéresse à l'observation d'Internet et aux outils qui l'analysent, il est aussi celui d’un dirigeant de PME. L’annonce du déficit commercial français de 39 milliards d’euros a été l’occasion d’une nouvelle épidémie de défaitisme, coutumière dans notre pays. La lecture de l’article publié par M. François David, Président de la COFACE (1), dans le Monde du 9 février 08 est un excellent remède (2), non pas que ce déficit soit un résultat à saluer mais plutôt qu’il faut analyser avec lucidité.

Que nous dit-il ? Que les 39 Mds sont à comparer au 156Mds d’euros de déficit du Royaume-Uni (peu connu pour son laxisme économique), aux 113 Mds de l’Espagne dont beaucoup salue le dynamisme. Que le montant des exportations par tête d’habitant place la France en 2ème position parmi les grands pays de l’OCDE et qu’un Français exporte 60% de plus qu’un Américain, 40% qu’un Espagnol, 35% de plus qu’un Japonais… Et qu’à l’échelle mondiale, il y a un acteur économique majeur qui prend des parts de marché à tous les autres pays, la Chine, qui, en dix ans, est passée de 2 à 7% de parts du marché mondial des exportations, acteur que l’on peut difficilement ignorer ! Et donc que le défaitisme n’est peut-être pas complètement justifié !

François David pose ensuite la vraie question qui est de savoir comment améliorer notre balance commerciale, répondant par «la croissance des PME» qui font par exemple que l’Allemagne est le champion à l’exportation : «le vrai sujet, longuement rebattu, mais jamais réellement concrétisé est de permettre aux PMEs de grossir… il est difficile pour un patron de PME de consacrer dix salariés pendant un an à attaquer le marché chinois lorsqu’il a une cinquante employés. En revanche, s’il est à la tête de 500 salariés c’est beaucoup plus facile».

Nous ne pouvons qu’être d’accord et remercier M. David de le rappeler. Et d’ajouter que ce constat en appelle un autre qui est la confiance qu’ont les grands donneurs d'ordre français dans les PMEs, problème régulièrement débattu autour « du Small Business Act » à la française (3).

De ce point de vue, M. David peut être doublement remercié. Notre entreprise a démarré son activité fin 2001 avec un chiffre d’affaires de … 10000€. En mars 2002, COFACE signait notre premier contrat majeur - beaucoup plus important que ce chiffre d’affaire - en nous faisant confiance, alors que notre bilan comptable n’était vraiment pas rassurant (vraiment pas !). Cette confiance, et celle de sa société à travers ses collaborateurs, nous a permis de démarrer et quelques années plus tard d’avoir un chiffre d’affaires de quelques centaines de fois supérieur à celui de 2001, une entreprise bénéficiaire qui fait vivre 25 personnes et est présente en Angleterre et en Suisse. Et continue « à grossir » avec une confiance renouvelée depuis plus de 5 ans. CQFD.

Alain Beauvieux

(1) Coface est la principale compagnie d’assurance spécialisée dans l’assurance-crédit à l’exportation www.coface.fr

(2) »Le lancinant lamento du déficit commercial. Le commerce extérieur français est tout sauf calamiteux. Chiffres à l’appui », par François David, Président de la Coface
http://www.lemonde.fr/archives/article/2008/02/08/le-lancinant-lamento-du-deficit-commercial-par-francois-david_1009078_0.html

(3) Depuis, une cinquantaine d’années, les grands donneurs américains ont l’obligation de confier jusqu’à 30% de leurs achats à des PMEs américaines, dans le respect des règles de concurrence. Cette mesure, qui ne s’inscrit pas dans la logique de l’assistanat et des subventions mais dans celle de la confiance et de l’investissement, a permis à de très nombreuses PMEs innovantes de devenir de grandes sociétés, Microsoft, Oracle, … en tête.

06/02/2008

Internet : vrais forums ou intox ?

9d8efc579f90b9056dbe08923b507e78.gif La revue «Que choisir» dans son numéro de février consacre un article à ce sujet, ajoutant dans son chapeau « A notre avis il y a intox » ce qui a le mérite de la clarté!

J’avais déjà évoqué ce problème à la suite de notre présentation à ESOMAR dans le billet du 25 novembre 2007 où j’indiquais «Les blogs sont par essence personnels; l’auteur est connu; les opinions qui sont exposées sont - a priori - sincères. Toutes les entreprises ou agences qui ont essayé de faire de «faux blogs» prétendument personnels ont échoué, la supercherie se retournant contre eux. Il est évident que les forums sont beaucoup plus facilement influençables dans la mesure où il est difficile de savoir si «Sylvie P.» n’est pas simplement une agence payée pour distiller des messages bien pensés».

«Que choisir» est allé plus loin dans la démarche comparant notamment les commentaires sur le site Ciao.fr. Il est troublant de constater que les commentaires positifs se ressemblent souvent y compris dans les fautes d’orthographes ! Ainsi la revue note que «13% des internautes de Restoparis, sur un échantillon de 508 messages – ont été bien acceuillis». Sic ! Merci le couper/coller. La revue rappelle aussi que depuis la loi du 3 janvier 2008, dite «loi Chatel», ce type de pratiques est passible des tribunaux.

Si ces faits sont troublants – et sans doute réels – il n’en demeure pas moins que des millions de personnes s’expriment sur Internet de façon spontanée et désintéressée. Et de ce point de vue, les blogs constituent une source plus fiable car l’auteur est connu et parfois reconnu!


Alain Beauvieux

27/01/2008

Une nouvelle version pour AMI Enterprise Intelligence

6ee622e420cb3c1ac317af45f6e4e6ba.jpg Le lancement d’une nouvelle version d’un produit logiciel est un moment important pour un éditeur de logiciels. Fruit d’une réflexion prenant en compte les attentes de ses clients mais aussi de sa propre perception de l’évolution de son marché, toute nouvelle version est un pari, renouvelé tous les 12-16 mois. Qui plus est dans un domaine comme Internet dont la vitesse de développement a de quoi surprendre !

Un pari ? En 2005, AMI Software, qui s’appelait « Go Albert », en a fait un, misant sur le concept d’Intelligence d’entreprise. Ce que beaucoup auraient pu prendre pour une coquetterie sémantique, voire un des « magic words » dont l’industrie informatique raffole, s’avère être une tendance forte du développement des systèmes d’information.

Que constate-t-on depuis bientôt dix ans? Une explosion de données, notamment textuelles, tant à l’intérieur qu’à l’extérieur de l’entreprise et dont la connaissance est essentielle à la maitrise de son environnement. Il y a une dizaine d’années, ces informations se limitaient à celles qui circulaient sur quelques titres de presse, c-à-d … à quelques photocopies. Le développement du Web et de sa première génération a conduit à une augmentation significative des informations disponibles en « mettant en ligne » celles qui l’étaient auparavant sous forme imprimées ou au mieux dans des bases de données propriétaires.

Le développement de la deuxième génération du Web a conduit à une explosion de ces données. Qui parle d’une entreprise aujourd’hui ? Tout le monde : elle-même évidemment et beaucoup plus qu’avant, la presse bien sûr, mais aussi ses clients, ses partenaires, des « influenceurs », ses concurrents, ses collaborateurs, ses anciens employés, etc. Et en interne, ce phénomène n’a fait que se développer : mails, notes, outils collaboratifs, intranets et portails d’entreprise, etc. ont largement contribué à ce développement.

Que faire de ces masses d’informations ? Deux options : les ignorer ou au contraire les exploiter intelligemment afin de constituer un véritable capital pour l’entreprise. En introduisant AMI Enterprise Intelligence notre entreprise a fait ce pari, favorisant le partage et la valorisation de ces nouvelles données, peu ou pas structurées, garantissant que toute information clé pour l’entreprise et circulant sur Internet serait connue et enfin, introduisant un nouveau mode de visualisation reposant sur la personnalisation à la façon d’un tableau de bord.

Pari qui semble gagné au regard des excellents résultats de la société en 2007 et de l’intérêt sans cesse croissant de grands groupes pour cette stratégie, comme l’a montré la SNCF en décembre dernier ou de PMEs innovantes comme le laboratoire pharmaceutique Lyocentre, il y a quelques jours. Alors, une nouvelle version d’AMI Enterprise Intelligence pour continuer dans cette voie ! A découvrir sur le site www.amisw.com, notamment à travers le communiqué de presse et très bientôt, en « live ».

Alain Beauvieux

15/01/2008

Microsoft rachète le norvégien FAST

74366b5f9e2bc0e0f4835c16170ce5eb.gif Cette annonce la semaine passée a surpris car le secret était bien gardé. Chez AMI Software, nous sommes assez bien outillés pour suivre les acteurs de notre domaine, et nous ne l’avions pas anticipé. Comme personne, d’ailleurs, ce qui prouve surtout que le secret était assez récent !

La bonne question à se poser est de savoir ce qu’a racheté Microsoft pour 1,2 Milliards d’euros.

La compagnie FAST ? Certainement pas. FAST est un acteur majeur (#2 mondial) des moteurs de recherche pour entreprise, c’est-à-dire un nain pour l’industrie informatique : en 2006, bonne année de l’éditeur (1), la compagnie emploie 600 personnes pour un chiffre d’affaires de 162M€. La même année, Microsoft employait 60 000 personnes et générait 44282M$, soit environ 36900M€ (au cours de l’époque) soit 227 fois plus de FAST !

La base client ? Avec 3500 clients FAST dans le monde, ce qui est respectable, cette base n’a pas beaucoup d’importance pour Microsoft qui est en situation de quasi-monopole dans le marché des PC et contrôle un tiers du marché des serveurs d’entreprise.

La technologie ? Manifestement oui. Celle de Fast est parfaitement respectable et il faut bien admettre que le moteur «Search Server» livré avec Windows gagne à ne pas être utilisé ! Or, dans le marché de l’entreprise, un autre acteur fortuné apparaît : Google. Et pas simplement, avec ces jolies « Google Appliance » peintes en jaune mais avec des offres complètes allant de l’hébergement (donc sans les serveurs Microsoft) au moteur de recherche, en passant par le portail et le Content Management System. En gros, le marché de Microsoft en entreprise. Qui se devait de réagir vite. Ce qui a justifié cet achat de technologie pas si fréquent chez l’éditeur de Seattle. Lorsque Microsoft, un peu en retard, a créé Internet Explorer, il l’a fait dans ses labos et n’a pas acheté Nescape.

Il faut croire qu’il y a péril en la demeure pour faire un si beau chèque aussi vite. En tout cas, il y a quelques Norvégiens qui vont passer de beaux jours au soleil !

Alain Beauvieux

(1) nous sommes partis des chiffres 2006 qui sont certifiés ; les annonces de Fast ont été sujettes à « forte discussion » dans le passé et invitent à la prudence.

13/01/2008

Journée nationale des études 2008

1b241f83b43d33362df743fade34fe4c.jpg La prochaine Journée nationale des études (JNE) organisée par l’ADETEM et l’Union des annonceurs aura comme thème « "LES ETUDES NE SONT PLUS CE QU'ELLES ETAIENT!" ».

Thème qui me tient à cœur, mon entreprise AMI Software concevant des outils logiciels permettant de mieux comprendre les nouveaux lieux d’expressions qui se sont nés avec Internet et qui représentent une nouvelle voie pour les études marketing. Honoré aussi d’avoir été invité à exposer notre point de vue lors de cette JNE avec une intervention intitulée "Blogs, communautés, réseaux sociaux : un nouveau moyen de comprendre les opinions." dont voici le résumé :

Le développement du Web 2.0 a permis l’émergence de millions de lieux d’expressions que sont les blogs, forums et autres réseaux sociaux. Lieux d’expressions spontanées et non suscitées qui permettent de recueillir des opinions de consommateurs et de citoyens en dehors du prisme des groupes utilisateurs et des grilles de sondages. Ce nouveau medium a aussi ses contraintes liées à sa volumétrie et à la quasi-absence de structuration des informations traitées.
Dans un premier temps, cet exposé montrera comment capter, suivre, organiser et analyser ces données afin de détecter quelles sont les opinions saillantes, les phénomènes émergents et signaux faibles, d’extraire la terminologie associée et de fournir les principales statistiques et cartographies indispensables à l’analyste. Dans un second temps, il s’intéressera à une communication active en garantissant que toute opinion publiée sera captée et analysée offrant ainsi aux décideurs la liberté d’une réponse appropriée et immédiate. La présentation sera illustrée de nombreux cas d’études.


Pour participer et vous inscrire à cette prochaine JNE, rendez-vous sur http://jne2008.blogsmarketing.adetem.org/


Alain Beauvieux

17:00 Publié dans Métiers | Lien permanent | Commentaires (0) | Tags : JNE, UDA, ADETEM

06/01/2008

iPhone : et si Steve Jobs se trompait ?


Cette réflexion peut paraître saugrenue tant le succès boursier d’Apple est époustouflant mais l’analyse de la blogosphère suscite quelques interrogations à ce sujet. Sans sombrer dans l’Applemania et la vénération de S Jobs, il faut bien reconnaitre que depuis qu’il a repris la direction de cette entreprise, celle-ci a renoué avec la croissance, les profits et surtout a reconstruit son image d’innovateur, née avec l’Apple IIc et le Macintosh. Apple a su satisfaire les nouveaux besoins apparus avec le développement Internet par des appareils à l’ergonomie plébiscitée et techniquement irréprochables. L’iPod et iTunes en sont un parfait exemple : Apple, constructeur de micro-ordinateurs, devient «disquaire» et «vendeur d’électrophones» à son plus grand bénéfice, avant même que les industriels du domaine le comprennent et réagissent.

L’iPhone suit-il la même voie ? D’un point de vue marketing indéniablement. Il suffit de constater l’engouement actuel pour le nouveau produit d’Apple. Le nombre d’abonnés français (70 000 abonnées en 1 mois depuis le lancement le 29/11) est là pour le confirmer.

En revanche, en y regardant de plus près, l’affaire n’est pas si simple.

Technologiquement, ce nouveau terminal ne représente pas la meilleure offre contrairement à l’essentiel des produits Apple. Avant même son lancement en France, de nombreux bloggeurs l’ont comparé avec d’autres smartphones du marché. Par exemple, les blogs N95 8 go vs Iphone : choisis ton camp ! ou http://aide-iphone-faq.blogspot.com/2007/12/comparer-iphone-nokia-n95-noel.html dressent un constat peu flatteur pour l’iPhone et largement à l’avantage du NokiaN95.

Commercialement, la stratégie d’Apple est discutable : en voulant imposer une commission aux opérateurs de télécom sur toutes les communications transitant par l’iPhone, S Jobs s’attaque directement à leur modèle économique. Il y a encore de très nombreuses offres avec « le portable à 1€ » couplé avec un abonnement (souvent lucratif), le coût réel du terminal étant payé via les consommations. De plus, Apple crée des situations de monopoles qui sont de moins en moins bien perçues par les consommateurs.

Tous les opérateurs de la planète, ATT en tête, se sont précipités pour capter l’effet médiatique lié à l’iPhone. Maintenant, il est bien évident que dès qu’une alternative crédible à l’iPhone apparaitra, ces opérateurs chercheront à se dégager des contraintes imposées par Apple. Or, comme nous venons de le voir, ces alternatives commencent à apparaitre : Nokia, LG, Samsung, Sony Ericsson,… sont de très grands groupes industriels dont les capacités d’innovation sont réelles et intactes et qui n’ont pas grand-chose à apprendre d’Apple en matière de téléphonie.

Cette stratégie de l’alternative a déjà commencé à se développer et à porter ses fruits : SFR, le grand perdant dans le « mariage iPhone », a habilement lancé ses forfaits Illimythics qui, couplés avec le N95 ou le Viewty, font un tabac (40 000 abonnés en deux semaines à comparer aux 70 000 iPhones en un mois). Il suffit de lire la réaction des bloggeurs à ce sujet, notamment Erin Vorak (Mon nouveau NOKIA N95 8GB - THE iPhone Killer sur http://aufondagauche.blogspot.com/2007/12/mon-nouveau-nok.... Et, l’on peut douter qu’Orange reste longtemps hors de ce mouvement avec comme seule offre celle de l’iPhone dont l’attrait va se relativiser.

Apple, qui demeure une très belle histoire industrielle, en tirera rapidement les conclusions qui s’imposent, en renonçant à ces monopoles anticoncurrentiels. Finalement, la bonne nouvelle est pour les consommateurs qui pourront acquérir ce petit bijou d’ergonomie à un coût plus abordable.

Alain Beauvieux

22/12/2007

L’information non structurée dans l’entreprise

L’information non structurée dans l’entreprise.
Par Alain Garnier, Editions Hermés – Lavoisier

db3cb01ebabd02c57f2739f2c23b1a37.jpgL’ouvrage d’Alain Garnier est un travail remarquable par sa précision et sa richesse. En un peu plus de 200 pages, il permet au lecteur d’avoir un panorama complet des applications exploitant des «informations non structurées» qui se sont développées avec Internet. Travail rigoureux d’ingénieur, il propose notamment une analyse intéressante et originale des usages de ces applications, par les différentes fonctions de l’entreprise, qui repose sur le modèle FC3T (Finalité, Criticité, Type de liens, Temporalité, Type d’informations).
Deux chapitres sont consacrés aux outils qui constituent un très bon point d’entrée pour le néophyte mais n’ont pas la richesse des analyses précédentes, car faisant référence à des technologies assez anciennes, ce qui il est vrai à l’échelle du Web, veut dire de l’année dernière!

Plus discutable est le concept d’information non structurée. Discutable sur un plan lexicographique car correspondant à une construction peu habituelle dans la langue de Molière; il s’agit en fait d’une traduction du terme anglais «unstructured data»(*) où est «non structurée» tout ce qui ne l’est pas,...ce qui n’est pas d’une grande utilité! Alain Garnier se risque à une définition (page 23) : «une information est dite non structurée quant elle renvoie à un usage non-inscrit dans un modèle et se construit à partir d’un sens dérivé du langage ou de la pensée». Définition qui peut conduire à un raccourci tentant selon lequel «la pensée est l’univers du non-structuré» et doit faire bondir plus d’un cartésien! Et il serait étonnant que les informations d’un fichier client bien structuré ne trouvent pas leur sens dans la pensée du lecteur.

Alain nuance page 35 en expliquant qu’une «partie de l’information non structurée devient structurée». Humble constat pour finalement se dire qu’il serait plus raisonnable de parler «d’information pas encore structurée», histoire de se rappeler que les données structurées sont les seules que les ordinateurs sachent traiter. Ainsi, rappelons, que les bases de données, emblème de l’information structurée, sont apparues dans les années 80, après que les fichiers plats ont montré leurs limites dans les opérations de gestion des entreprises. Constatons aussi que les moteurs de recherche ne sont que des «structurateurs» de l’information en s’appuyant sur la technologie des index.

Il n’en demeure pas moins que le constat que dresse Alain est bien réel, à savoir l’explosion de données pour lesquelles aucun modèle n’a été – encore - conçu. Cette explosion est le fruit de deux phénomènes : d’une part, le formidable développement des réseaux informatiques, en premier lieu Internet, et d’autre part, l’explosion des données textuelles (et sans doute demain vidéo).

Et c’est probablement le vrai challenge du moment : quels sont les modèles et donc les outils qui permettent de traiter et donc de structurer cette immense masse de données textuelles. Et de ce point de vue, l’ouvrage n’apporte pas vraiment d’éclairage dans un domaine qui en aurait bien besoin.

Bien que le titre soit discutable, il en demeure pas moins que ce livre est un incontournable et que tout responsable d’un système d’information et plus généralement, toute personne s’intéressant au traitement de l’information appréciera sa lecture.

Alain Beauvieux

(*)Sur Wikipedia version française: pas de définition précise du terme «information non structurée» mais une centaine de références.

From Wikipedia, the free encyclopedia: unstructured data (or unstructured information) refers to masses of (usually) computerized information which do either not have a data structure or one that is not easily readable by a machine. The term is imprecise: software that creates machine-processable structure exploits word morphology, sentence syntax, and other small- and large-scale patterns found in source materials to discern linguistic, auditory, and visual structure that is inherent in all forms of human communication.[1] Examples of "unstructured data" may include audio, video and unstructured text such as the body of an email or word processor document.

18/12/2007

Le Blog « Pour ma ville »

Le Monde du 18 12 07 se fait écho de la campagne menée par Mme Fadela Amara, Secrétaire d’Etat à la politique de la ville, notamment autour du blog intitulé «Pour ma ville».

Plus de 11000 messages ont été reçus dont la majeure partie provenant de quartiers sensibles, essentiellement de jeunes, 92% des messages ayant été postés suite à une opération de sensibilisation réalisée par Skyrock (*).

Analysés par une équipe du CNRS, l’un des chercheurs note : «Le blog a permis de recueillir des opinions que les réunions électorales ou autres débats participatifs ne permettent pas de capter habituellement. Nous sommes dans la sociologie de l’expérience directe».

Nous ne pouvons que partager son point de vue !

Alain Beauvieux

(*) voir http://pourmaville.skyrock.com/

14/12/2007

Blogs et distribution, un article intéressant sur Atelier.fr

Le site de l’Atelier (www.atelier.fr) publie un article très intéressant intitulé «Les bloggeurs bouleversent le modèle de la grande distribution ».
http://www.atelier.fr/medias-loisirs/10/14122007/communaute-bloggeurs-etats-unis-propose-guide-conseil-achats-noel-35713-.html

Le chapeau de l’article résume bien l’impact des blogs sur la eReputation des marques et des produits: En multipliant les initiatives structurées visant à conseiller le public pour ses achats de noël, la large communauté de bloggeurs américains met l'avenir de la vente au détail dans les mains des consommateurs.

L’article fait état d’une étude menée par Nielsen Online qui a exploré un millier de blogs américains dits influents au mois de novembre. Ce réseau de bloggeurs représente de facto un vaste catalogue de Noël … virtuel et collectif. Il serait intéressant qu’une étude similaire soit réalisée en France où le nombre de bloggeurs rapporté à la population est un des plus élevés en Europe et où la distribution n’a pas grand-chose à envier à ses confrères américains.

Alain Beauvieux

19:01 Publié dans Lu et Vu | Lien permanent | Commentaires (0) | Tags : influence, eReputation

10/12/2007

France : 19ème sur 30 en science.

1f4fd1f92181ab8d3f8bc1df3d6cd554.gif
La lecture du Monde du 5 décembre – page 10 – a dû attrister plus d’un scientifique. 19 sur 30 c’est le classement récent de la France pour l’enseignement des sciences, classement réalisé en 2006 par l’OCDE et qui fait suite à celui de 2003 où notre pays était dixième.

Il est vrai que la science n’a plus le même pouvoir d’attraction sur la jeune génération que sur les précédentes : « trader » est plus souvent cité qu’astronaute comme profession rêvée par les écoliers actuels.

Quelque soit cette désaffectation, à laquelle les autres pays développés n’échappent pas, il n’en demeure pas moins que l’enseignement en France, et pas seulement des sciences, a de plus en plus de difficulté à dispenser le niveau de compétences dont les entreprises et services ont besoin et qui nous amène à ce score attristant. Situation d’autant plus incompréhensible pour un pays précurseur qui a pris cette décision ambitieuse et essentielle de rendre l’école obligatoire pour tous les enfants il y a plus d’un siècle.

Je ne prétends pas avoir la compétence pour trouver "la solution" à ce problème. J’observe simplement que le système de J. Ferry, assez égalitaire, que l’on peut qualifier de «tamis» n’est plus adapté : ainsi, chaque année scolaire agit comme un filtre pour finalement construire une pyramide. A l’image de celle du meunier où la fleur est l’élite. Le vrai problème est que notre pays et ses entreprises n’ont plus vraiment besoin du son !

Dans ces conditions, pourquoi ne pas repenser l’enseignement, notamment celui des collèges, non plus en terme d’année (6ème, 5ème, etc.) mais en terme d’unités de connaissances correspondant à des savoirs maitrisés. Que vaut-il mieux ? Qu’un élève mette deux ans pour comprendre la proportionnalité – alors que les plus brillants mettront 6 mois – ou «qu’il passe» en année supérieure sans savoir faire une «règle de 3». Pour arriver au final à 16 ans, sans maitriser les connaissances élémentaires à toute vie en société. Les Finlandais, cités en exemple pour leur première place à ce classement, ont déjà répondu à cette question. Constatons aussi que la formation professionnelle est organisée de cette façon.

En y réfléchissant un peu, tous les enseignements auraient à y gagner. Par exemple, plutôt qu'une heure d'enseignement musical pendant 4 ans, ne vaudrait-il pas mieux 8 heures par semaine pendant 6 mois. Je suis convaincu que les élèves en retiraient sans doute plus qu'avec le saupoudrage actuel. Et que certains y trouveraient un réel intérêt à poursuivre en dehors du collège. Et l’enseignement des sciences dans tout cela ? La démarche est la même en se donnant le temps et les moyens de développer de véritables projets reposant sur l'observation, la compréhension et mise en œuvre de modèles et enfin l'expérimentation.

Loin d'avoir la naïveté de penser que tout le monde sera polytechnicien, il nous semble que cette démarche permettra à chacun de donner le meilleur de lui-même en fonction de ses capacités et de ses complaisances. Ce qui j'en conviens correspond à la mise en place de classes de niveau par le jeu des modules, classes qui sont officiellement bannies mais qui, de fait, existent déjà.

Alain Beauvieux

22:20 Publié dans Humeurs | Lien permanent | Commentaires (0) | Tags : enseignement, OCDE

08/12/2007

Interface Google … suite

Dans la série "Interface minimaliste", Sébastien Marinier (cf site amis) me signale le moteur d’Orange www.lemoteur.orange.fr

afb2bd994cac120953da9fa01b0cbdad.jpg


Toute ressemblance avec un personnage existant est fortuite !

22:30 Publié dans Métiers | Lien permanent | Commentaires (0) | Tags : moteur, orange, interface

02/12/2007

L’interface Google ?… pas si bête !

Un client me faisait remarquer récemment que l’interface de Google n’avait que très peu évolué depuis son lancement, très minimaliste, avec une case de recherche et une page essentiellement blanche. D’autant plus étonnant que la tendance actuelle chez les éditeurs français de moteurs de recherche (dont je fais partie) est plutôt à offrir de plus en plus d’outils de navigation : catégories, entités nommées, langues, mots associés, etc. Il est donc légitime de s’interroger à ce sujet.

Sauf à faire preuve d’une grande naïveté, les réponses ne sont pas à chercher du coté de « ils n’y ont pas pensé », « ils ne savent pas faire », « ils n’ont pas les moyens »… toute chose que le succès commercial et financier de Google infirme.

La réponse est plutôt chez les utilisateurs (comme toujours !). Force est de constater que depuis plusieurs années un « usage » des moteurs de recherche, au premier rang desquels Google, s’est développé, consistant à poser des questions, à regarder les 10 premiers résultats (exactement la page Google), et si l’utilisateur ne trouve pas son bonheur, à reposer une question, en ajoutant éventuellement un ou deux mots. Démarche itérative, basique, voire un peu brutale mais c’est un fait. Et l’utilisateur a toujours raison.

Bien évidemment, l’attitude d’un professionnel recherchant de l’information professionnelle sur un Intranet n’est pas la même que celle d’un internaute qui surfe sur le Web. Ou il est tentant de le penser bien qu’il s’agisse souvent de la même personne. De ce point de vue, une étude intéressante et visionnaire (1) avait été publiée fin 2003 relatant les différences individuelles en matière de recherche d’information sur le Web. Les auteurs constataient, que contrairement à leurs attentes, les outils de navigation sophistiqués offerts en plus d’une interface minimaliste n’étaient utilisés que par 8% des utilisateurs.

La réponse à l’interrogation de notre client est probablement là : la grande majeure partie des utilisateurs, qu’il soit internaute au intranaute, ont le comportement itératif décrit précédemment. Et pour cela une interface minimaliste est suffisante.

Alors doit-on en conclure qu’en dehors de Google point de salut. En ce qui concerne la recherche d’informations en entreprise, certainement pas ! Car la vraie question est la pertinence des informations remontées et donc la qualité de la technologie d’indexation. Et celle de Google est construite pour faciliter le « surf » sur Internet sur un immense volume de données, en favorisant les pages les plus populaires. Est-ce cela dont les intranets d’entreprise ont besoin ? Certainement pas et il y a beaucoup mieux chez les éditeurs français du domaine. Même si la réflexion autour de l’interface minimaliste est à prendre en compte avec humilité … et sagesse !

Alain Beauvieux

(1) L’étude en question est publiée dans “IHADJADENE M., CHAUDIRON S. et MARTINS D., " The Effect of Individual Differences on Searching the Web ", in Proceedings of the 66th Annual Meeting of the American Society for Information Science and Technology, Long Beach, October 19-22, 2003, p. 240-246.”

25/11/2007

Blogs, forums, etc. quelle légitimité ?

6e6494b2f036e8cb4c2eca475769c918.jpgLe terme blogosphère s’est très vite imposé dans l’univers d’Internet et plus particulièrement des analystes qui s’intéressent à ce médium. Il y a deux semaines, le journal Le Monde consacrait un article sur le devenir de la blogosphère politique, constatant d’ailleurs que le nombre de blogs de cette nature était sans cesse croissant, bien qu’il n’y ait pas actuellement d’enjeu électoral.

Une question est de savoir si réduire l’analyse des lieux d’expression sur Internet à la seule blogosphère est légitime. La réponse est bien évidemment négative. L’intérêt de la démarche que nous mettons en avant est celle de l’observation de ces lieux d’expression, observation faite sans qu’il y a eu préalablement de biais introduits par des questions posées ou des critères de sélection d’un panel. Que ces lieux soient des blogs, des forums, les zones de commentaires que proposent les sites média ne change pas rien à cette démarche. Certains secteurs, comme par exemple la santé, ont vu le développement de forums spécialisés bien avant que le terme de Web 2.0 existe !

Il est toutefois un élément non négligeable à prendre en compte concernant la fiabilité des informations collectées. Les blogs sont par essence personnels ; l’auteur est connu ; les opinions qui sont exposées sont - a priori - sincères. Toutes les entreprises ou agences qui ont essayé de faire de «faux blogs» prétendument personnels ont échoué, la supercherie se retournant contre eux. Il est évident que les forums sont beaucoup plus facilement influençables dans la mesure où il est difficile de savoir si «Sylvie P.» n’est pas simplement une agence payée pour distiller des messages bien pensés. Il en est de même de tous les lieux d’expression où l’auteur n’est pas clairement identifié.

Alain Beauvieux

Cette contribution est développée dans l’article «Listening instead of asking: how blogs provide a new way to better understand market trends», par François Laurent, (http://www.marketingisdead.com) et Alain Beauvieux. Voir www.esomar.org ou www.amisw.com onglets « Documentation/Etudes et rapports ».

21:45 Publié dans Métiers | Lien permanent | Commentaires (0) | Tags : blogs, forums, influence

18/11/2007

Body vs Long Tail …

… ou quels lieux d’observation ?

f6dd71030cd8ed5c2f0ae532a87d2d6b.jpg Dans notre article publié à l’ESOMAR (1), un des points abordés est évidemment « que doit-on observer ?». La blogosphère peut se structurer en deux sous-ensembles dénommés par les Anglo-Saxons : «Body» pour les blogs dits d’autorité et «Long Tail» pour les millions d’anonymes, désignation faite en référence à la courbe qui les décrit.

Le critère généralement admis pour qualifier un «blog d’autorité» est son classement par les moteurs de recherche caractérisé par son «page rank». Ce coefficient est déterminé par une combinaison de plusieurs paramètres propres à chaque moteur, celle de Google ayant fait sa fortune. En particulier, l’indice de popularité qui traduit la densité des liens entre un site et le reste d’Internet est un élément déterminant (si vous voulez me faire plaisir, n’hésitez pas à citer mon blog dans vos communications !). Dans ces conditions, le postulat est simple : plus un blog est visible plus il est représentatif des opinions du plus grand nombre. Les blogs français les plus représentatifs ont un page rank de 5 ou 6.

Constatons d’emblée que le nombre de blogs d’autorité est très faible : par secteur d’activité, il va tourner autour de quelques dizaines, ce qui finalement pour le technicien, est un bonne nouvelle car il est élémentaire d’indexer quelques centaines de sites.

Si cette heuristique «connu donc représentatif» est a priori séduisante, elle s’avère très restrictive d’un point de vue opérationnel. D’une part, dans le cas d’études sur l’opinion, nous avons pu vérifier régulièrement que l’opinion de «spécialistes» n’était pas celles d’une large population. Ceci est particulièrement vrai pour les consommateurs et l’est tout autant de la sphère politique. Sur son blog, M. Loïc Le Meur donne ses opinions et ses analyses à la façon d’un journaliste (ce qui tend de fait à devenir, la rédaction de son blog étant son activité principale). Ses opinions sont beaucoup trop convenues – sans que le terme soit péjoratif – pour affirmer qu’elles soient spontanées.

Si l’on souhaite réellement connaître l’avis des milliers de consommateurs du «Café du Commerce électronique», il faut analyser la Long Tail soit en France, environ 4 millions de blogs. Ce qui n’est pas une bonne nouvelle pour le technicien mais va constituer une extraordinaire base d’observations de la société.

Et le pouvoir d’influence ? C’est une tout autre dimension et il est évident que celui des blogs d’autorité est réel au même titre que celui de tous les autres médias. Plusieurs acteurs dont la société pour laquelle je travaille ont des projets et des offres à ce sujet qui est pour le moins complexe. Là aussi trouver un coefficient qui mesure le pouvoir d’influence n’est pas trivial : réduire le pouvoir d’influence à un comptage de nombre de liens est évidemment réducteur. Ce n’est pas parce qu’une opinion est partagée qu’elle est admise.

Mais alors, comment suivre et analyser les millions de contributions de la Long Tail. La suite au prochain épisode ou si vous êtes pressés vous pouvez lire l’article.

Alain Beauvieux

(1): « Listening instead of asking : how blogs provide a new way to better understand market trends », par François Laurent, (http://www.marketingisdead.com) et Alain Beauvieux. Voir www.esomar.org ou sur demande.

16/11/2007

Google – Pages Jaunes : 4-0.

Le score est sans appel !

Il y a quelques jours une collaboratrice de PagesJaunes m’a appelé pour me signaler que nous n’avions pas retourné leur formulaire de commande. Le ton courtois mais ferme laissait penser à la faute.

Les Pages Jaunes n’étant pas obligatoires, je lui demande pourquoi je devrais signer un engagement de 250€ (ce que nous faisons il est vrai depuis toujours).

- Réponse : «C’est indispensable si vous voulez que vos clients et prospects trouvent votre société ».
- Question : «Vous êtes sure ? Pouvez-vous taper « AMI Software » sous Google.
- Réponse : «Bravo ! Vous êtes dans les premiers ».
- « Maintenant faites la même chose sous Pages Jaunes »
- Question : « quelle ville ? »
- Réponse : « Google ne le demande pas ; AMI Software est à Paris, Montpellier, Cambridge. Disons Paris ».
- Réponse de mon interlocutrice : « c’est une autre société qui apparaît. Pour vous, il faut taper Go Albert sinon vous n’êtes pas référencés mais on peut trouver une solution » (en fait, AMI Software est la marque introduite en juin dernier et Go Albert, la raison sociale).
- Ultime question de ma part : « pourquoi voulez-vous que nous payons 250€ un service pas facile à utiliser alors qu’un meilleur est gratuit ?».

La réponse n’était pas dans l’argumentaire et mon interlocutrice, pourtant pleine de bonne volonté, n'a pu me la donner.

Alors pourquoi un score de 4-0 en faveur de Google: 1 pour le prix (on a envie de dire 2), 1 pour la qualité de service (pas besoin de préciser la « localité » comme au bon vieux temps du Minitel), 1 pour la réactivité (je n’ai jamais écrit à Google pour leur signaler notre nouvelle marque) et 1 parce que je n’ai même pas à remplir de formulaire. Score sans appel.

Même si Pages Jaunes est un beau succès en tant qu'entreprise, ma remarque invite sans doute à la réflexion car rien n'est acquis.

Et chacun pourra apprécier mon fair-play car ma société est parfois en concurrence avec Google sur certains dossiers d'entreprise.

14/11/2007

ESOMAR Qualitative Research Conference

83dc1051892100fb1171b15140dc7419.jpg
ESOMAR World Research Conference s’est tenue les 12 et 14 novembre 2007 à Paris avec comme thème « Qualitative Research in the 21st Century ».

François Laurent, (www.marketingisdead.com) et moi-même avons présenté à cette occasion un article intitulé : « Listening instead of asking : how blogs provide a new way to better understand market trends », finalement une des seules contributions françaises sur les 49 intervenants.

Cette nouvelle méthodologie reposant sur le produit AMI Enterprise Intelligence rencontre un intérêt croissant au sein des Instituts et agences de communication, comme Repères (www.reperes.net) et Boléro (www.bolero.fr ), qui y voient une nouvelle façon de mieux analyser et comprendre les attentes des consommateurs, en complément des méthodes traditionnelles.

La conférence qui a regroupé près de 300 participants de 42 pays a été l’occasion d’un véritable échange sur un sujet où les Français sont assez en avance. A l’inverse du retard général sur Internet (La France est le dixième pays européen en terme d’équipements – cf dossier du Monde 2 du 17-18/11), notre pays est un champion de la blogosphère. Après tout, les blogs sont des millions de « café du commerce » où chacun donne son point de vue.

Avec François, nous publierons quelques chapitres significatifs de l’article dans nos blogs respectifs mais si vous voulez le lire dans son intégralité, n’hésitez pas à nous le demander.

Alain Beauvieux

10:20 Publié dans Métiers | Lien permanent | Commentaires (0) | Tags : esomar, listening, observer

07/11/2007

Wikipedia dans l’Histoire.

0ead25056c0d23afbf1fcc2b971a5f79.jpg La très sérieuse revue l’Histoire (1) publie dans son numéro de novembre un article intitulé « Wikipedia est-elle fiable ?». Une première réponse à cette question avait déjà été donnée par la tout aussi sérieuse revue Nature dans son numéro du 15 décembre 2005 indiquant dans le chapeau de son enquête « Jimmy Wales’ Wikipedia comes close to Britanica in terms of accuracy of its science entries, a Nature investigation finds ». L’article de l’Histoire confirme cette analyse, partagée quotidiennement par … quelques dizaines de millions d’utilisateurs mais nuancée par un encadré de M. Jean-Noël Jeanneney.

Il constate une faiblesse de Wikipedia pour « deux naïvetés majeures » :
1) « la rencontre d’un grand nombre d’individus de compétence et de culture inégale » ne peut aboutir à « un savoir sûr », cette qualité ne pouvant être garanti que par « un comité qui fasse autorité et qui guide rigoureusement les rédacteurs ».
2) « ...l’accumulation de faits juxtaposés tend à mettre sur le même plan l’essentiel et l’anecdotique, à empiler des données que n’organise aucun esprit synthétique…».

Le premier argument n’est pas nouveau ; c’est finalement celui des tenants du suffrage censitaire au XIXe siècle préférant laisser les choix essentiels de la nation à quelques « esprits synthétiques » (et accessoirement fortunés !). Il ne s’agit pas de nier l’importance de la compétence et de l’expérience ; j’ai tout au long de ma vie professionnelle pu vérifier le fait que l’on ne faisait jamais l’économie de sa formation. Simplement, j’avoue être toujours dubitatif quant à l’existence des « savoirs sûrs » qui sont un peu comme les « vérités » : elles sont toujours relatives à un groupe culturel, à une époque et à un ensemble de connaissances et de valeurs qui en sont le reflet.

La réalité sans doute mal comprise par M. Jeanneney est l’universalité des points de vue que peut apporter Wikipedia, opération rendue possible par la rupture technologique qu’a introduit Internet puis les outils de travail collaboratif désigné par le vocable « Web 2.0 ». M. Jeanneney conclut son billet par « l’infidélité de Wikipedia à la grande aventure de Diderot et d’Alembert auquel son nom fait référence ». ». Il serait intéressant d’imaginer quelle aurait été leur réaction face à cette formidable ouverture offerte par Internet. Constatons par exemple qu’ils avaient pris le soin de s’entourer d’une « société de gens de lettres » pour rédiger « l’Encyclopédie ou Dictionnaire des sciences, des arts et des métiers », sans doute conscient que l’universalité impose l’exhaustivité des points de vue, mais avec les limites techniques de leur époque. Ce qui, au XVIIIème siècle était en soi révolutionnaire, notamment sur le plan politique, nos monarques étant peu friands de cette exhaustivité.

Certes, mais l’esprit de synthèse qui garantit l’objectivité et les savoirs surs ? Je fais partie de ceux qui pensent que cette sagesse est souvent dans l’esprit critique de chacun, capable pour peu qu’il ait eu l’instruction et l’éducation nécessaire, de se construire son opinion à partir des informations dont il dispose. Cette faculté est une valeur incontournable et elle est le fondement de toute démocratie. Elle n’est pas liée à une technologie ou même un mode de construction lexicographique. La question posée par Wikipedia n’est pas tant sa fiabilité mais plutôt son usage. Il est clair que si l’élève recopie naïvement ce qui lit sans réflexion personnelle, il est peu probable que l’expérience soit enrichissante. Ce qui n’est pas vraiment nouveau mais simplement amplifiée et facilitée par Internet.

Alors disons simplement que Wikipedia offre une formidable plateforme de recueil de savoirs et de connaissances avec une universalité impossible à atteindre avec des moyens traditionnels. Comme le constatait récemment F .Laurent dans son blog (http://www.marketingisdead.com) lors de l’annonce la mort de « Paul Tibbets, l'Américain qui a largué la bombe atomique sur Hiroshima ». Nous ne nous étions pas concertés mais sa note tombe à pic !

Alain Beauvieux

(1) L’Histoire, revue de référence, dont le site est www.histoire-presse.fr, est publiée par la société des éditions scientifiques, qui édite aussi le magazine La Recherche.

22:30 Publié dans Humeurs | Lien permanent | Commentaires (0) | Tags : Wikipedia, L'Histoire

28/10/2007

Observer, ça commence aujourd'hui !

Observer ? Drôle de nom pour un blog où la tendance est plutôt à s’afficher.

Et il est vrai que l’étude de la blogosphère ne manque pas de piquant. Un fabuleux « café du commerce électronique » où chacun y va de son opinion. Si Marcel Dassault était vivant, il n’en croirait pas ses yeux, lui qui se plaisait chaque semaine à se faire l’écho du dit « Café du commerce » (revu et corrigé par ses soins) dans feu – Jours de France, revue hebdomadaire qui faisait le bonheur de milliers de français attendant, inquiets, la roulette de leur dentiste..

C’est amusant la première fois où j’ai lu un blog, c’est la première idée qui m’est venue. Et la seconde est que contrairement au Café du Commerce de M . Dassault, qui était unique dans tous les sens du terme, ils sont des millions de « Café de commerce » avec des consommateurs qui ont la bonne idée de publier leurs idées sous forme électronique. Et l’informaticien que je suis a tout de suite compris le changement. Avec des logiciels adaptés, il serait possible de capter ces opinions, les classer, les organiser et les analyser et tout ceci de façon complètement neutre. Non pas que je mette en doute la neutralité des sondages et autres questionnaires, simplement j’ai gardé en mémoire quelques résultats « retentissants » au premier desquels ceux de l’élection présidentielle de 2002.

Cette idée a pris un tournant décisif en lisant La Tribune en octobre 2006, notamment un article dont le titre était « Observer plutôt qu’interroger » écrit par un certain Monsieur François Laurent. Et comme l’activité de ma société est précisément de fabriquer des logiciels de veille et d’Intelligence économique, même avec un nom aussi passe-partout, je l’ai retrouvé et de fil en aiguille, cette idée a fait son chemin.

Aujourd’hui, nos logiciels sont utilisés pour analyser l’opinion des bloggeurs pour des instituts, des agences ou des annonceurs. Et le « Observer plutôt qu’interroger » est devenu “ Listening instead of Asking: How blogs can provide a new way to better understand market trends”, le titre de l’article que nous présenterons au prochain congrès de l’ESOMAR (www.esomar.org), le 13 novembre.

Et puis, je le reconnais : à force de lire le blog de François (www.marketingisdead.com), souvent plein d’humour, et d’Observer celui des autres, il fallait bien que je m’y mette. Alors je blogue et nous Observons.

Alain Beauvieux