OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Discours d’investiture de la cinquième : essai de text mining http://owni.fr/2011/07/24/discours-dinvestiture-de-la-ve-essai-de-text-mining/ http://owni.fr/2011/07/24/discours-dinvestiture-de-la-ve-essai-de-text-mining/#comments Sun, 24 Jul 2011 12:42:16 +0000 Marie Coussin http://owni.fr/?p=74552 Billet initialement publié sur le datablog d’OWNI

Pour ce test, j’ai choisi les discours prononcés par les présidents de la Vème République lors de leur (première) investiture afin de pouvoir comparer des textes énoncés dans un même contexte.
Ils sont tous accessibles et exportables en PDF (faut pas trop en demander non plus…) sur le site de l’Elysée.
Pour lire le détail des textes :
Discours de Charles De Gaulle, 8 janvier 1959
Discours de Georges Pompidou, 20 juin 1969
Discours de Valéry Giscard d’Estaing, 27 mai 1974
Discours de François Mitterand, 21 mai 1981
Discours de Jacques Chirac, 17 mai 1995
Discours de Nicolas Sarkozy, 16 mai 2007

De Gaulle et Sarkozy, les plus bavards

Premier élément à comparer : la longueur des discours, dont la différence saute aux yeux une fois le nombre de mots extrait grâce au logiciel de traitement de texte.

Qui parle le plus, et de quoi ?

Pour rentrer un peu plus dans le détail des textes, j’ai essayé OpenCalais qui crée des metadonnées sur les noms d’entités, faits et évènements repérés dans un texte.
Dans ce cas précis de discours d’investiture, et avec sa version démo, OpenCalais n’apportait pas vraiment de valeur ajoutée : les lieux, personnes et institutions citées dans un discours d’investiture sont un peu toujours les mêmes.
Voilà ce qu’OpenCalais extrait pour le discours du Général De Gaulle :


J’ai ensuite testé le logiciel Tropes, pingué par notre collègue data Guénaël Pépin (@Reguen sur Twitter).

Fonctionnant en deux versions, anglaise et française, il offre quelques fonctionnalités d’analyses assez fines des discours : style d’énonciation, scénario de construction, verbes/adjectifs/substantifs les plus prononcés, etc.
Tropes permet aussi d’extraire des graphs (mais ils sont loin d’être esthétiquement exploitables) et surtout de faire facilement des recherches sur certains termes.
Pour donner une idée, quelques éléments d’analyse sémantique produits par Tropes :

J’ai utilisé Tropes pour isoler le nombre de mots prononcés par chacun sur trois champs lexicaux forcément utilisés par les orateurs :
– l’utilisation de la première personne ;
– la référence à la France et aux Français ;
– la référence à la République.

Ces données sont à mettre en relation avec la longueur respective de chaque discours (graphique n°1), visualisé de manière différente grâce aux widgets de Google Chart…

Les discours dans les nuages

Dernier outil utilisé, afin d’avoir une vue d’ensemble du ton du discours, ManyEyes et son générateur de nuages de mots.
Si elle ne peut clairement pas être considérée comme une analyse scientifique précise, cette technique permet d’associer visualisation esthétique, rapidité d’exécution et éléments d’analyse.
Pour plus de lisibilité, j’ai limité le nombre de mots à 80 et ai enlevé les mots non porteurs de sens dans cette situation (“qu’il”, “ceux”, “le”, “la”, etc.)
Général De Gaulle :

Georges Pompidou :

Valéry Giscard d’Estaing :

François Mitterand :

Jacques Chirac :

Nicolas Sarkzoy

Ces visualisations permettent de mettre en valeur certaines caractéristiques :
- chaque Président a un ou plusieurs thèmes qui ressortent de leur discours : “communauté” pour De Gaulle, “République” pour Pompidou, “changement” pour VGE, “tous” et “Français” pour Mitterand, “plus” pour Chirac et enfin “exigence” pour Nicolas Sarkozy.
- le discours de De Gaulle rappelle clairement le contexte historique dans lequel il a été prononcé : il y parle de “Dieu” et fait référence à “l’Afrique”, aux “africains” et la “Libération”.
Même effet pour Georges Pompidou : les références à “De Gaulle”, au “Général” sont très présentes, tout comme le champ lexical de la responsabilité et du sérieux “confiance”, “autorité”, “institutions”, “dépositaire”, “gravité”, “charge”, “devoir”.
- le discours de Giscard d’Estaing apparaît plus centré sur l’humain “femmes”, “jeunes”, “hommes” et les réformes qu’il entend mener “nouvelle”, “politique”, “conduirai”, “associera”, “droits”, “suffrages”.
- Avec des termes comme “peuple”, “communauté”, “majorité” mais aussi “monde”, “pouvoirs” “haute”, “ambition”, “véritable”, ‘millions” la narration de François Mitterand est davantage axé vers une vision de la France, de sa place dans le monde. On note également la référence à “Jaurès”.
- Le discours de Jacques Chirac met l’accent sur la “Nation”, la “République” et le champ lexical de la volonté : “ferai”, “changement”, “charge”, “victoire”, “commence”, “contre“.
- Enfin, celui de Nicolas Sarkzoy utilise beaucoup d’adverbes “toujours”, “jamais”, “aussi” et est marqué par la notion “d’exigence”, de vouloir “veut”.
Conclusion : sur des discours prononcés dans une situation similaire et relativement contrainte (parler de la Nation, de la République, des perspectives, etc.), ces outils simples de dataviz et d’analyse sémantique permettent de mettre en lumière des spécificités liées à chaque personnalité politique.

]]>
http://owni.fr/2011/07/24/discours-dinvestiture-de-la-ve-essai-de-text-mining/feed/ 8
Tim Berners-Lee:|| “Les gouvernements devraient encourager l’ouverture des données” http://owni.fr/2010/12/01/tim-berners-lee-gouvernements-ouverture-donnees-web-html5/ http://owni.fr/2010/12/01/tim-berners-lee-gouvernements-ouverture-donnees-web-html5/#comments Wed, 01 Dec 2010 09:18:10 +0000 cyrille chausson (LeMagIT) http://owni.fr/?p=36642 A l’occasion d’une conférence annuelle du W3C qui s’est tenue le 2 novembre dernier à Lyon, la rédaction du MagIT a rencontré Tim Berners-Lee, le père du Web et un des patrons du consortium. Au programme, le Web sémantique, l’ouverture des données, HTML 5 et la fondation W3. Tim Berners-Lee livre aussi sa réponse à l’article de Wired (“Le Web est mort. Vive Internet”).

Le Web sémantique évolue-t-il au rythme que vous espériez ?

Tim Berners-Lee : Je n’avais pas de prévisions à proprement dit. On ne peut pas prédire le futur et savoir véritablement comment les choses évoluent. Je pense en revanche que le Web sémantique s’inscrit dans une croissance exponentielle. Il y a quelques années, lorsque nous avons commencé à parler des Linked Data [un concept qui consiste à relier les données entre elles via le Web et non plus uniquement des pages - le principe même du Web sémantique, NDLR], les gens ont été quelque peu surpris car ils avaient une idée très simple de ce que cela pouvait être, illustrant du coup la nature essentielle du web sémantique. Il existe de très bons et nombreux outils autour du Web sémantique. Les Linked Data, qui demeurent très importantes pour les données publiques des gouvernements, sont une idée relativement simple qui génèrent beaucoup d’enthousiasme.

L’approche sémantique émerge également sur le desktop, comme Nepomuk (un projet de desktop sémantique qui fait une première apparition dans Mandriva 2010), peut être plus rapidement sur le Web. Pourquoi ?

TBL : Ce qui est intéressant dans les Linked Data, c’est qu’il s’agit d’une technologie d’intégration très puissante, qui permet notamment d’intégrer tout forme de technologie : des bases de données, des fichiers XML, des agendas, voire des cartes de visites électroniques. Les bénéfices de cette approche? Avoir sous la main votre vie, tout votre environnement où toutes les données importantes sont connectées entre elles. Avec Nepomuk, ils ont réalisé cette prouesse sur les données privées. Et les données privées sont une partie capitale du Web sémantique. J’utilise moi-même le principe des Linked Data à titre personnel, et il existe probablement d’autres personnes qui le font, mais on ne le sait pas. Et c’est la même chose en entreprise : les données personnelles de l’entreprise sont manipulées à l’intérieur du firewall. On ne sait donc pas que le Web sémantique est finalement utilisé. Les journalistes n’écrivent donc pas dessus. En revanche, ils s’intéressent aux Open Data Cloud, un cloud de données ouvertes pour les gouvernements par exemple. Il existe tout un spectre entre ce qui est public et ce qui est personnel. […] Les entreprises peuvent copier ses données et les utiliser dans leur système d’information.

Quel est aujourd’hui le niveau de maturité des outils en place ?

TBL : Quand on considère le Web sémantique, développer de nouveaux outils est toujours fascinant, tout se connecte et s’auto-alimente. Développer les Open Linked Data est une de nos principales priorités, car il existe tellement de données éparpillées et que grâce à ce procédé, seule la valeur de la donnée compte. Et pas seulement pour les gouvernements, mais également pour la chaîne de valeur par exemple. Il existe une véritable valeur à publier ses données.

Toutefois, je pense qu’il existe encore un marché pour des outils plus puissants. Dans le domaine des interfaces utilisateurs, des outils qui permettent de naviguer dans ces données […] et de mieux les présenter. Il existe une véritable valeur à ouvrir les données, mais une fois ces données connectées entre elles, comment l’utilisateur doit les explorer, comment lui faire passer l’information, pour ensuite produire une analyse pertinente, selon les besoins et les métiers. Les spreadsheets existent bien mais ne sont pas suffisamment performants pour donner du sens à un pool de données.

Tim Berners-Lee, prophète de l'open data?

Les  gouvernements européens devraient-ils davantage exposer leurs données publiques – ce qui est très lié aux projets d’e-administration ?

TBL : Oui bien sûr, ils devraient encourager cette ouverture car tout le monde y est gagnant et cela apporte de meilleurs services aux citoyens. Les gouvernements sont parvenus à résoudre les problèmes de production des données, ils doivent aujourd’hui aller plus loin. […] Donc oui je pousserais les gouvernements à développer les données publiques sur le Web. Mais ces données, liées aux fonctionnements du pays, ne sont qu’une partie de l’Open Data Cloud. Des données géographiques, sur les CDs, les artistes, les découvertes en matière de santé: il existe un grand nombre de type de données prêtes à être publiées sur le Web.

Le degré d’ouverture est-il aujourd’hui suffisant ?

TBL : En France, il y a le cadastre par exemple. La Commission européenne est également très intéressée par l’ouverture des données, pour notamment informer sur l’état des pays en cas de voyage dans Union européenne. En 2009, aux Etats-Unis comme au Royaume Uni, des projets comme data.gov ont été un vrai succès, engageant une compétition transatlantique. […] Ces projets sont certes globaux, mais les données locales sont également très importantes, regardez le cadastre en France. Cette classification n’est pas implantée dans tous les pays. Certains concepts sont nationaux, d’autres mondiaux. […]

Quel conseil donnerez-vous aux développeurs Web concernant HTML 5 ? Attendre que les spécifications soient finalisées pour les intégrer dans leurs développements, ou y passer dès maintenant ?

TBL : Ils doivent dès aujourd’hui s’intéresser à  HTML 5. Il est vrai que les travaux sont encore en cours de standardisation, certaines spécifications sont plus stables que d’autres, mais un bon développeur écoute toujours où se portent les débats, où en sont les travaux du W3C, quels éléments sont susceptibles de changer. Il est important de comprendre l’étendue des possibilités de HTML 5. Il est également nécessaire de comprendre le calendrier d’implémentation des fonctions dans les différents navigateurs. Mais HTML 5 est conçu pour rester compatible avec l’existant. Donc voici mes conseils : apprenez le, utilisez le, expérimentez. Vous comprendrez également vers quelle direction se dirige le standard, et si vous le souhaitez, prenez part aux débat du groupe de travail au W3C. Les travaux sont certes en cours, mais des éléments de HTML 5 sont aujourd’hui largement stables.

Comment se porte aujourd’hui votre fondation W3 ?

TBL : Aujourd’hui, 20% seulement de la population mondiale utilise le Web. Il en reste encore 80%. L’avons-nous développé uniquement pour nous ? A-t-il été développé par les pays développés pour les pays développés ? Nous avons donc décidé de monter cette fondation pour répondre à cette question, dont la portée est plutôt très large. Nous avons été très chanceux d’obtenir une première subvention sur cinq ans de la part de la Knight Foundation, pour démarrer. Nous avons commencé à regarder comment combler les fossés qui existent entre ceux qui ont accès au web et ceux qui ne l’ont pas. Et il existe des résultats intéressants. Dans les pays en développement, on mise en premier sur l’apport de l’eau, des soins médicaux puis on favoris les développements économiques. Mais Internet est considéré comme un luxe. Pourtant, il ne doit pas être pris de la sorte: il doit être vu comme un élément indispensable auquel les gens doivent avoir accès. Avec une connexion bas débit, ils peuvent trouver un emploi, obtenir de l’information sur leur environnement, l’utiliser pour partager des informations sur la santé. L’idée est que ces personnes entrent dans “l’Internet Society”. La Web Foundation travaille en ce sens. Nous nous concentrons aujourd’hui sur l’Afrique, mais la portée est bien plus vaste. Et portera également sur l’accès à Internet dans les pays développés.[...]


LeMagIT : La magazine Wired a décrété la mort du Web, invoquant notamment le schéma des applications mobiles qui ne donnent plus accès au Web et aux pages HTML,  mais aux seules applications qui sont elles-mêmes connectées à Internet. Quelle est votre position ?

Cliquer ici pour voir la vidéo.

Article initialement publié sur LeMagIT, sous le titre “Tim Berners-Lee : ‘les développeurs doivent s’intéresser dès aujourd’hui à

HTML 5′”

Illustration CC FlickR par Dunechaser, Documentally

]]>
http://owni.fr/2010/12/01/tim-berners-lee-gouvernements-ouverture-donnees-web-html5/feed/ 1
La reconnaissance vocale est morte : pet à son âme http://owni.fr/2010/11/10/la-reconnaissance-vocale-est-morte-pet-a-son-ame/ http://owni.fr/2010/11/10/la-reconnaissance-vocale-est-morte-pet-a-son-ame/#comments Wed, 10 Nov 2010 15:04:45 +0000 Dr Goulu http://owni.fr/?p=33275 D’après “2001 l’Odyssée de l’Espace”, nos ordinateurs devraient comprendre notre voix depuis 9 ans. Depuis 1997, on trouve des logiciels de reconnaissance vocale pour PC, et depuis peu nos téléphones disposent de cette fonction. Mais on ne l’utilise pas. Je ne connais personne qui dicte ses e-mails, et vous ?

Comme tous les geeks j’ai essayé de temps en temps, parfois passé une heure à lire des textes d’apprentissage de la voix la plus monocorde possible à la nouvelle version d’un soft, et puis abandonné devant ses piètres performances. Ça ne marche pas, ou pas assez bien.

Robert Portner analyse cet échec dans ”Rest in Peas: The Unrecognized Death of Speech Recognition“, titre subtilement traduit en français dans le présent article.

Le problème, c’est qu’après une phase de progrès rapides à la fin du siècle passé, le taux d’erreur de mots plafonne à 10% depuis 2001, soit environ le triple du taux d’erreur d’un être humain. Et encore, c’est pour l’anglais “standard”. Le taux d’erreur est bien plus élevé pour d’autres langues, et catastrophique pour une conversation entre supporters de foot à la sortie du match. (Voir l’évolution du taux d’erreur de mots du National Institute of Standards and Technology).

Pourtant dans les années 1990, des systèmes très fiables avaient été mis au point pour distinguer quelques mots bien choisis dans des cockpits d’avion ou des chiffres au téléphone, et on s’était légitimement attendus à ce que la Loi de Moore permette de traiter rapidement le langage naturel.

Et effectivement, aujourd’hui on sait bien reconnaitre des mots isolés. On sait à peu près éliminer les absurdités non conformes à la grammaire dans des phrases simples comme “le chat ment je la sous rit.” Mais pour distinguer entre “le chas mange la souris”, ”le chat mange là, sous l’riz” et  ”le chaman gela, sourit” et , il faut comprendre le sens de la phrase, voire le contexte dans lequel elle est prononcée…

Si l’ordinateur doit connaitre la différence entre un quadrupède carnivore et le trou d’une aiguille pour traiter une phrase triviale, on imagine que ce n’est pas demain qu’on dictera des contrats* ou des rapports à une machine.  De gros projets ont été lancés par des poids lourds de l’informatique pour tenter de modéliser la connaissance humaine.

Par exemple le projet MindNet de Microsoft a analysé des millions de pages de textes existants pour construire un graphe sémantique gigantesque, duquel il ressort effectivement que dans une phrase comportant “chat” et “souris”, le plus probable est que le chat chasse la souris. Un tel graphe peut certainement être utile en traduction automatique car on dispose d’un texte de départ, mais pour la reconnaissance vocale il faudrait étendre le graphe à la structure des phrases utilisées en conversation courante, qui peut être bien distincte du langage écrit. Et pour faire ça automatiquement, il faudrait la reconnaissance vocale…

Comme le note Portner, on pensait au début que la reconnaissance vocale était un premiers pas vers l’intelligence artificielle. Aujourd’hui de nombreux chercheurs estiment que l’intelligence artificielle est indispensable pour atteindre une reconnaissance vocale de qualité acceptable. Les gros projets de recherche ont été abandonnés les uns après les autres, bloqués devant le mur si bien décrit par les Perlisismes sur l’intelligence artificielle comme :

“Une année de travail sur l’intelligence artificielle est suffisante pour vous faire croire en Dieu”

Le nombre de recherches sur “reconnaissance vocale” ou “Dragon Naturally Speaking” sur Google baisse régulièrement depuis 2001. Comme aucune  idée fondamentalement nouvelle ne vient relancer la recherche, la reconnaissance vocale est morte, en toute discrétion.

Note : Ça me rappelle l’histoire de la secrétaire d’un célèbre ingénieur de la génération dictaphone qui avait commandé “310 mètres d’isolation entre 2 étages” au lieu de “3 centimètres” . Ça c’est avec les 2% d’erreurs de transcription humaines…

>> Article publié initialement sur le blog de Dr Goulu

>> Illustrations FlickR CC : TruShu et Loguy en CC pour OWNIsciences

]]>
http://owni.fr/2010/11/10/la-reconnaissance-vocale-est-morte-pet-a-son-ame/feed/ 6
Web 3.0: donner du sens aux données (vidéo) http://owni.fr/2010/05/11/web-3-0-donner-du-sens-aux-donnees-video/ http://owni.fr/2010/05/11/web-3-0-donner-du-sens-aux-donnees-video/#comments Tue, 11 May 2010 14:43:35 +0000 Martin Untersinger http://owni.fr/?p=15294 Cliquer ici pour voir la vidéo.

Donnant la parole à de multiples experts (Tim Berners-Lee, ou Clay Shirky), ce lumineux reportage réalisé par une toute jeune journaliste américaine, nous donne quelques idées de ce que sera peut-être le web 3.0 : un web sémantique, de liens et de relations.

Pour les non-anglophones, voici les éléments principaux.

Un web submergé par un contenu auquel il est difficile de donner sens

Le web tel qu’il est en train d’évoluer met à mal la logique de fonctionnement de Google. Clay Shirky est très clair: “la somme des médias disponibles pour l’utilisateur moyen est immensément supérieure à tout ce qu’a connu l’humanité“. Conséquence logique, selon Nova Spivack (expert en sémantique web) “Google était important quand le web était constitué de millions de pages web. Mais nous entrons dans un monde où il y aura bientôt des milliers de milliards de pages, [...] Google n’est pas fait pour ça.

Cette nouvelle profusion des sources d’information et ce flot incessant de données rendent difficile sa compréhension et sa hiérarchisation, à la fois par les machines et par les hommes. En effet, les robots Google n’analysent que ce que contiennent les pages web, mais ne prennent en compte que très partiellement la nature et le sens du lien entre ces contenus.

Vers un web “sémantique”

Tout l’enjeu de ce que l’on commence à appeler le “web 3.0″ est de donner du sens aux liens entre contenus, de donner du sens aux données, de prendre en compte et hiérarchiser le contexte du contenu. Pour les ordinateurs, une page web n’est rien d’autre qu’un agrégat de bits, mais comme l’affirme John Hebbeler, “la sémantique ajoute de l’information supplémentaire concernant la signification de l’information“. Car c’est cette dernière qui importe. Dans cette vidéo, Lee Feigenbaum est très clair : “les liens veulent dire quelque chose.” Et Nova Spivack d’en rajouter une couche “Tout est question de relations, [...] de contexte.” “Si je dis n’importe quel mot, c’est le contexte qui l’entoure qui lui donne sa signification“.

Chaque image, chaque article, chaque contenu posté sur le web est analysé par les moteurs de recherche. Le contexte peut être d’un grand secours pour hiérarchiser et donner du sens à ces contenus. Qui l’a propulsé dans le flux, de qui et de quoi il parle, quels sont les liens entre le posteur et l’item posté sont autant d’indices permettant de redonner sens à un Internet fragmenté et multiple.

Donner un nouveau sens au web

Dès lors, comment un monde fait de liens porteurs de sens “relationnels” peut être donné à penser à de “simples” machines ? On retiendra cette lumineuse formulation de Clay Shirky: “au lieu de faire penser les machines comme des gens, on peut décrire le monde dans des termes compréhensibles pour les machines“. D’où les exigences du web sémantique en terme de codage.

Et comme le rappelle à raison cette vidéo, ces questions nous ramènent à des interrogations ontologiques fondamentales qui ont taraudé les philosophes: est-ce que le monde a un sens intrinsèque et indépendant, ou est-ce que ce sens est socialement construit, modelé par l’esprit humain ?

En complément, allez-donc lire ce billet de la soucoupe sur la question, traitée d’un point de vue graphique.

Crédits photos Flickr CC : Nnova, Luc Viatour.

]]>
http://owni.fr/2010/05/11/web-3-0-donner-du-sens-aux-donnees-video/feed/ 3
Inauguration de la transcription automatique des programmes TV/video http://owni.fr/2010/03/01/inauguration-de-la-transcription-automatique-des-programmes-tvvideo/ http://owni.fr/2010/03/01/inauguration-de-la-transcription-automatique-des-programmes-tvvideo/#comments Mon, 01 Mar 2010 16:04:02 +0000 Michel Lévy Provencal http://owni.fr/?p=9248 Mikiane fait partie des membres fondateurs de la soucoupe. Responsable des nouveaux médias à France 24, il présente dans ce billet un projet chapeauté au sein du Lab de France 24. Analyse et explications par un insider, c’est le moins que l’on puisse dire /-)

Titre original :

Demo: inauguration de la transcription automatique des programmes TV/video live

J’ai déja eu l’occasion de parler de ce projet mené au sein du Lab de FRANCE 24 depuis plus de 6 mois. Vous retrouverez les différentes étapes de la conception et réalisation de cette expérimentation dans les billets suivants:

Aujourd’hui, cette expérimentation vit une nouvelle étape grâce à un partenariat avec Yacast Media, Exalead et Vecsys: le lecteur vidéo haut débit de FRANCE 24 permet à présent de transcrire automatiquement sous forme de texte les 24 dernières heures d’antenne.

Depuis décembre dernier, FRANCE 24 propose sur son site Internet une nouvelle expérience de télévision interactive : le lecteur HD. Ce lecteur haut débit offre aux internautes la possibilité de « contrôler le direct », car il peut balayer les 24 dernières heures de programmes en quelques secondes, en déplaçant le curseur sous l’image sur un simple navigateur web.

Cliquer ici pour voir la vidéo.

Fort de cette innovation, le LAB de FRANCE 24 fait aujourd’hui évoluer cette application en y ajoutant une nouvelle fonctionnalité permettant de faire figurer automatiquement sur ce même lecteur chaque mot prononcé à l’antenne, depuis les commentaires des présentateurs, les récits de reportages jusqu’aux interviews de tous les invités.

Cette première technologique est basée sur une analyse sémantique automatique des scripts extraits de chaque vidéo. Elle permet de générer en 24 heures, sans intervention humaine, une variété de mots-clés, de lieux, de noms de personnalités ou d’organisations citées sur FRANCE 24 et donc, d’en optimiser le référencement.

L’algorithme de transcription permet dans la majorité des cas de générer un texte fidèle au discours prononcé à l’antenne. Cette capacité que nous avons désormais à retranscrire le flux en léger différé (quelques minutes), ouvre des possibilités considérables. Certes les textes obtenus contiennent parfois des erreurs, mais demain, l’ensemble des contenus pourraient être découpés automatiquement, enrichis en métadonnées, sous-titrés, et éventuellement traduits automatiquement. A court terme, cette technologie peut grandement améliorer le référencement de nos contenus. Elle offre un meilleur confort de lecture quand l’audio pose des difficultés et en particulier pour les malentendants. Enfin, elle peut être une aide potentielle dans le cadre de l’apprentissage des langues.

>> Un aperçu du prototype incluant cette toute nouvelle fonctionnalité est accessible sur le LAB de FRANCE 24

» Article initialement publié sur Mikiane.com

]]>
http://owni.fr/2010/03/01/inauguration-de-la-transcription-automatique-des-programmes-tvvideo/feed/ 8
De la construction d’un réseau virtuel à celle d’une pensée distancielle http://owni.fr/2010/02/02/de-la-construction-d%e2%80%99un-reseau-virtuel-a-celle-d%e2%80%99une-pensee-distancielle/ http://owni.fr/2010/02/02/de-la-construction-d%e2%80%99un-reseau-virtuel-a-celle-d%e2%80%99une-pensee-distancielle/#comments Tue, 02 Feb 2010 11:25:19 +0000 Catherine Ertzscheid http://owni.fr/?p=7519 J’ai déjà évoqué ici l’intérêt des formations en community management. Ces derniers temps, j’ai suivi quelques échanges sur Twitter sur les rapports entre enseignement et entrepreneuriat. Quelques réflexions faisaient valoir le distingo entre ceux qui font et ceux qui enseignent… Durant mes études, j’ai souvenir que les professeurs qui m’ont le plus transportée étaient ceux qui faisaient, tout en partageant leur savoir et expérience avec nous.

Lorsque l’on réalise une formation sur les médias sociaux rien est plus sympathique que de montrer, à ses élèves, la réactivité d’un réseau. Pour cela, en sa qualité de média temps réel, Twitter est un bon exemple… Que de fois, ces dernières semaines, où j’ai expliqué l’outil et ses usages possibles en faisant des démonstrations sur mon propre compte avec des résultats au-delà de mes espérances. Mon réseau est bien vivant et je n’en doutais pas mais comme toute évidence, ça va mieux en le disant ;)

Twitter, outil et vivant : cherchez l’intrus, me direz-vous… A mon sens, il n’y en a pas.

Internet nous offre un espace virtuel entre individus. Bien que la lecture des ouvrages deGilles Deleuze, notamment Différence et Répétition, serait plus appropriée pour cerner l’idée de « virtuel », je dirais pour faire synthétique que le virtuel est ce qui n’a pas d’existence actuelle, pas de matérialité tangible. Pourtant, lorsque je m’adresse à mes contacts Twitter en leur disant : « je suis en formation Twitter, quelqu’un pour me faire un signe? #Formation #CM » et que je reçois en moyenne 25 réponses en une demie heure, difficile de penser de manière pragmatique que ce réseau n’a pas d’existence réelle et actuelle. Voilà pourquoi, bien souvent dans mes présentations, je privilégie le terme distanciel. Dans le langage courant, le concept virtuel a bien souvent une connotation d’irréalité, de faux-semblant. Pourtant mes démonstrations tendent à montrer que l’interaction est bien concrète, qu’elle se produit de manière immédiate entre internautes bien vivants mais à distance.

Outre le fait de se dégager des connotations négatives de la réinterprétation du concept « virtuel », ce choix sémantique a aussi un autre intérêt. Je n’ai pas toujours en face de moi un public acquis aux médias sociaux, « pire » certains peuvent être assez hermétiques mais ils auront pourtant à les utiliser dans leur pratique professionnelle ou militante. Alors il convient d’adapter le langage pour rapprocher l’auditoire des outils étudiés. En résumé, je tente de partir de leur réalité de terrain pour conduire mes élèves vers les médias sociaux. Démythifier les outils en les rapportant à des réalités connues de tout un chacun.

Un outil n’est pas magique, il ne suffit pas d’avoir un compte Twitter, par exemple, pour avoir de la réactivité quand on sollicite sa communauté. Un réseau se pense, se construit et demande « patience et longueur de temps » (cf. Le Lion et le Rat, Jean de la Fontaine). Mais de tout cela nous reparlerons dans un prochain billet.

» Article initialement publié sur Nunalik

»Illustration de page d’accueil par luc legay sur Flickr

]]>
http://owni.fr/2010/02/02/de-la-construction-d%e2%80%99un-reseau-virtuel-a-celle-d%e2%80%99une-pensee-distancielle/feed/ 2