OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Joyeux anniversaire l’interouèèèbe ! http://owni.fr/2011/08/10/joyeux-anniversaire-linteroueeebe/ http://owni.fr/2011/08/10/joyeux-anniversaire-linteroueeebe/#comments Wed, 10 Aug 2011 06:25:20 +0000 la redaction http://owni.fr/?p=75786 Cher interouèbe,

Assumant le pas de côté et la périodicité de magazine, OWNI te fête un TRÈS JOYEUX ANNIVERSAIRE. Avec quatre jours de retard. Mais quand même! Sache que ce délai n’enlève rien à la grande affection que nous te portons. Si. Si.

Bon, d’accord, on a oublié. Pardon.

Mais tu n’es pas sans savoir que ta date de naissance est sujette à caution. Des doutes sur le père demeurent, ainsi que le rappelait Cyroul en janvier dernier. De ce fait, c’est un peu ton anniversaire tous les jours. D’ailleurs, le peuple qui est le tien te le rappelle sans arrêt, en te célébrant quotidiennement, à sa façon.

OWNI se joint à l’élan commun en t’offrant très solennellement ce magnifique gâteau d’anniversaire, agrémenté comme il se doit de bougies, de crème, de vidéos, d’articles et de photos.

Ta généalogie, tes protégés comme tes ennemis: on s’est permis d’en mettre quelques bouts, histoire de se rappeler les bons moments passés ensemble.

On dit que 20 ans, c’est le plus bel âge. C’est aussi celui des bêtises. On peut dire que tu cumules déjà un peu les deux. Et on te fait confiance pour continuer à grandir, à t’épanouir, à être cette chose merveilleuse que tu es déjà.

Avec tout notre amour,

Survolez la photo pour faire apparaître les liens.


Illustration CC FlickR: thewazir

]]>
http://owni.fr/2011/08/10/joyeux-anniversaire-linteroueeebe/feed/ 1
Web: on n’a pas tous les jours 20 ans http://owni.fr/2011/01/21/web-on-na-pas-tous-les-jours-20-ans/ http://owni.fr/2011/01/21/web-on-na-pas-tous-les-jours-20-ans/#comments Fri, 21 Jan 2011 07:33:53 +0000 Cyroul http://owni.fr/?p=43198 Certains vous diront qu’Internet a 15 ans, mais dommage pour nos calvities naissantes c’est faux. Le web a 20 ans et Internet est nettement plus vieux. Alors fêtons ça dignement avec ce petit dessin (fait dans le métro – vous m’en excuserez d’avance) censé nous raconter l’histoire simplifiée du web.

Car il faut s’en rappeler, les transformations sociales et culturelles occasionnées par le World Wide Web sont vertigineuses. Imaginez-vous qu’il y a 20 ans, personne n’avait d’adresse e-mail. Il y a 20 ans, les jeux vidéo se jouaient sur des disquettes. Il y a 20 ans, monter une start-up était impensable (il fallait racheter un fond de commerce, reprendre la boutique de papa pour avoir sa boîte). Il y a 20 ans, il suffisait de faire des études pour avoir un métier sérieux (alors qu’aujourd’hui, il vous suffit d’être community manager). Et il y a 20 ans, j’avais des cheveux longs. Il y a 20 ans, la vie était complètement différente… Le web a tout changé. Va-t-il continuer ?

1991: la naissance du World Wide Web

Ce serait Tim Berners-Lee (le boss du W3C) qui aurait inventé le web en 1989, mais le premier véritable site web (Info.cern.ch) a été mis en ligne en 1991. Et c’est en 1993 que le code source du World Wide Web est devenu open (gratuit) et tomba dans le domaine public. Enfin, en 1994/95, Netscape Navigator arriva sur nos bécanes. L’aventure du web commençait et il est intéressant de voir qu’elle est indissociable de l’histoire du partage libre des connaissances.

1992-1995 : un nouveau monde à explorer

Les premiers colons de ce territoire furent les universitaires qui se sont amusés à inventer, créer et tester des concepts analogiques éprouvés, des vieilles théories remises au goût du jour et des idées farfelues. Le résultat fut une foule d’idées et de savoirs qui s’éparpillèrent dans tous les sens, créant des formes nouvelles et inimaginables. On a vu ainsi débarquer (ou renaître) les concepts d’hypermédia, de démocratie virtuelle, de mondes virtuels, etc.

Et puis, les modems se mirent à être accessibles, les fournisseurs d’accès se multiplièrent, et les étudiants, que nous étions à l’époque, purent enfin faire des trucs non-universitaires sur ce support étrange. En peu de temps, les webzines, dignes successeurs des fanzines (car moins coûteux), se multiplièrent (la Rafale, les Ours, la Baguette Virtuelle,etc.). Des sites la plupart du temps sans images, mais où l’on trouvait de l’humour, de la passion, de l’expertise et surtout la liberté d’écrire ce que l’on voulait. La génération cyber naissait…

1996-2000: l’avènement des autoroutes de l’information

Ça y est, la première bannière de publicité a été affichée. Les marques s’intéressèrent alors à Internet, assimilant rapidement ça à un nouveau support média qu’il suffisait de remplir avec de la bannière ou de l’affiliation. D’ailleurs en publicité, on appellera ça du “hors média” jusqu’en 2009. Les marques les plus malignes, elles, développèrent déjà des sites web ou des applications de gestion de comptes (pour les banques). Ce fut une époque de fête pour les agences de développement de sites web, les créateurs de contenus et de contenants.

Marc Andreessen fit la couverture de Time et, d’un seul coup, le monde des affaires s’aperçut qu’on peut faire de l’argent en vendant des trucs immatériels, des “logicielsou “des sites web”,  comme disent les ingénieurs informatiques. Certains businessmen comprirent mal et pensèrent que vendre de l’immatériel, c’est vendre du rien. Alors ils décidèrent de se lancer sur Internet et de vendre du vent.

Cela marcha… un temps. Et on appellera ça ensuite “la bulle Internet” pour bien circonscrire cette crise au territoire virtuel. Seulement, ceux qui ont déclenché cette crise n’avaient rien de virtuels. Qu’ils soient startupers ou investisseurs, c’étaient des chercheurs d’or venus se faire de l’argent sur un Klondike virtuel. Et leurs pelles étaient les dotcoms. De vrais kasskooyes quoi.

2001-2005 : glandeurs et décadences du web

Et puis il y eu comme un couac. Les investisseurs, business angels et autres “Ventres” Capitalists (sic) décidèrent de récupérer leur argent (de vérifier si leurs investissements étaient viables). Aïe ! “Comprenez moi, cher investisseur, mais vacherchertamamieamarseilledotcom, le service de co-voiturage à domicile pour octogénaires marseillaises, ne pourra trouver son point d’équilibre qu’en 2025, moment où la France ne sera composée que de vieux de 80 ans vivant dans le Sud. En attendant, vous allez devoir continuer à nous soutenir.

Bizarrement, la plupart des investisseurs coupèrent les crédits. Et la plupart des boites coulèrent. Que les dotcoms coulent, ce n’était finalement pas très grave (trop de truands en costard pour être sérieux), par contre, c’est tout l’écosystème Internet qui s’écroula d’un seul coup. Beaucoup de projets très intéressants, de concepts révolutionnaires, de talents réunis, ruinés, perdus, éparpillés. La réalité marketing et publicitaire rattrapa Internet : il fallait que ça crache, il fallait du ROI. Ne subsistèrent alors que les campagnes bannières ou les sites e-commerce. Le monde digital devint triste.

Mais encore une fois, c’est le libre qui sauvera le web. Depuis plusieurs années, des passionnés créaient des CMS gratuits et évolutifs permettant à des non-spécialistes de mettre plus facilement à jour leur site web. Ainsi Spip, Joomla, WordPress et les autres provoquèrent l’émergence d’un phénomène inattendu : le blogging.

On savait que les internautes aimaient écrire (ils étaient déjà consommateurs d’IRC via ICQ, et le petit nouveau MSN), mais à ce point ?! Alors le blogging redonna des couleurs au web. Oui il y avait du tout et du n’importe quoi, mais cela signifiait de la diversité, de la création gratuite et surtout de nouvelles idées. Le web revivait.

2006-2010 : entre liberté totale et dictature absolue

2006, le grand public convergea vers le web. Pourquoi pas ? On y trouvait de meilleurs affaires que dans les magasins à côté de chez soi, et on pouvait y discuter, s’engueuler, donner son avis gratuitement, et de façon illimitée. Mieux que la TV ! En plus, Internet c’est gratuit: musique, vidéo, films, livres. Toutes les publicités disaient bien qu’Internet ne coûtait que le prix de son abonnement et qu’après c’était cadeau, alors pourquoi s’en priver ? Donc le grand public ne s’en est pas privé. A lui les mp3, les divx et les vidéos en streaming de Koh-Lanta.

Seulement tout ça n’était pas sans conséquence. D’un seul coup, médias et producteurs de contenus s’aperçurent que les chiffres de vente n’étaient plus aussi bons. Forcément, ce n’était pas de leur faute, mais de celle d’Internet. Il fallait agir ! Après quelques coups de téléphone bien placés, les gouvernements (directement impactés par la crise de l’audiovisuel et des médias qui se prépare) ont agi !

Première étape, désinformation: faire peur en montrant les horribles dangers d’internet. Deuxième étape, répression : punir ceux qui se croient libres. Résultat, filtrage des connexions: les médias vont enfin pouvoir consulter vos données personnelles (et ceux qui vous disent le contraire n’ont pas beaucoup d’imagination).

Mais pendant que les gouvernements tentaient de maîtriser les tuyaux où passe Internet, des sociétés innovantes avaient déjà réussi à créer les tuyaux qu’elles contrôlent. Apple, Google et Facebook (j’aurais pu rajouter Microsoft, Yahoo et quelques autres) savaient déjà ce que les internautes faisaient sur leurs sites. Certes, ces données ne sont pas consultées. Pas encore. Mais ça ne durera pas. Et c’est entièrement légal ! Bon courage pour faire un procès à Facebook le jour où ses investisseurs voudront gagner de l’argent en vendant ou exploitant vos données personnelles. L’internaute sous prétexte d’être sauvé des pédophiles et des pirates va se faire voler sa vie privée. Mais comment faire autrement ? Ce pauvre internaute, bourré de désinformation gouvernementale est la proie idéale pour des marques sans scrupules.

Mais tout n’est pas perdu

Car heureusement le libre n’est pas mort. Et l’on a pu constater l’émergence de nouveaux usages via les principes du libre. Les drôles de mèmes Internet, l’incroyable pouvoir de l’anonymat digital, la peur panique des politiques de la transparence de l’information (via l’affaire WikiLeaks), l’incroyable force du téléchargement en peer-to-peer, et bien d’autres choses encore. L’internaute averti s’est retrouvé capable de réaliser des choses qu’il aurait crues incroyables. Le web est bien le lieu de tous les possibles.

Alors on se retrouve à l’aube de 2011, face à un dilemme. D’un côté laisser les gouvernements et des boîtes comme Facebook gagner la guerre pour un Internet policé et stupide, mais qui rapporte de l’argent, ou de l’autre essayer de suivre la route, moins simple mais plus intéressante de l’Internet libre. C’est ce que j’ai tenté d’illustrer dans ce dessin du métro. Quelle route allons-nous choisir ?

Personnellement j’ai choisi. Car comme l’histoire du web nous l’a appris: suivre uniquement la voix de l’argent ne peut que tuer les potentialités du web. Vous n’êtes pas d’accord ?


Article initialement publié sur Cyroul, sous le titre “Bientôt 20 ans de web”

Illustrations: Bailey Weaver, Cyroul (CC), Archives nationales américaines, Tom Margie (CC FlickR)

]]>
http://owni.fr/2011/01/21/web-on-na-pas-tous-les-jours-20-ans/feed/ 12
Le web. Un point c’est tout ? http://owni.fr/2010/12/15/le-web-un-point-cest-tout/ http://owni.fr/2010/12/15/le-web-un-point-cest-tout/#comments Wed, 15 Dec 2010 16:05:10 +0000 Olivier Ertzscheid http://owni.fr/?p=39290 Vous êtes ici.

Pourquoi le web, pourtant si bifurquant, si rhizomatique, si sensiblement épars, nous semble-t-il si aisément abordable, si facilement traversable, embarqués que nous sommes, équipage de moussaillons mal dégrossis derrière leur navigateur (browser), vaisseau amiral en haute mer des hyperliens possibles ?

Est-ce là la seule grâce et le seul fait d’une formidable et trans-maritime écluse répondant au nom de Google ? Est-ce là l’inaliénable mérite de “moteurs” de recherche fixant eux-mêmes le cap, listant par défaut quelles routes seront ouvertes et traversables parce que par eux-mêmes balisées (indexées) et quelles voies resteront inaccessibles sauf à quelques rares mais essentiels navigateurs chevronnés ?

Non.

Si le web, malgré son immensité de contenus donc, nous est rendu appropriable, si le sentiment d’être “lost in hyperspace” s’efface souvent au profit d’une découverte hasardeuse, heureuse (sérendipité) et rassurante, c’est pour une raison simple.

Le web. Aller et retour.

C’est parce que le web est un graphe. Mais un graphe particulier. Un graphe à invariance d’échelle, c’est à dire avec de la redondance, beaucoup de redondance, c’est-à-dire un graphe ni vraiment aléatoire ni vraiment hiérarchique. C’est à dire un graphe dont l’immensité relationnelle, dont l’extraordinaire densité n’oblitère pas la possibilité offerte à chacun d’entre nous d’en mesurer le diamètre ; mieux, de faire l’expérience de cette mesure, de faire le tour du web.

Le diamètre d’un graphe, c’est la plus longue distance entre deux nœuds. Le diamètre du web, c’est la plus longue distance entre deux liens hypertextes.
LE spécialiste intergalactique des graphes, Laszlo Barabasi a mesuré ce que nous ne faisons la plupart du temps que ressentir en naviguant, c’est à dire cette impression d’avoir fait le tour, de revenir à notre point de départ ou à quelque chose qui lui ressemble étrangement. Laszlo Barabasi a mesuré le diamètre du web. C’était en 1999. Et il était de 19 liens.

Avec mon camarade Gabriel Gallezot, dans un article fondateur – bien que jamais publié en papier ;-) -, dans cet article nous écrivions derechef que :

Cela signifie, que quelles que soient les unités d’information choisies (en l’occurrence des pages web), elles se trouvent connectées par une chaîne d’au plus dix-neuf liens. Au delà de chiffres qui, du fait de la nature même du web ne sauraient être stabilisés, ces études ont surtout permis de construire une topologie de l’espace informationnel tel qu’il se déploie sur les réseaux, en faisant émerger certaines zones « obscures » (web invisible), déconnectées d’autres zones mais tout aussi connectées entre elles, et en ce sens homogènes.

D’où ce sentiment de proximité, de complétude, de confort de navigation (plutôt que d’errance), de communauté, de “village global” devant ce qui devrait pourtant nous apparaître comme une immensité par définition non-traversable puisque impossible à cartographier parce qu’en perpétuel mouvement.

Des graphes et des fractales.

Car tel est le web. Tout au moins celui des premiers temps. Car depuis le web – et depuis le temps – sont apparus des graphes dans le graphe. Ils ont pour nom Flickr, YouTube, LiveJournal (plate-forme de blogs) et tant d’autres. D’autres en ont également établi les diamètres respectifs :

  • FlickR : 5,67
  • YouTube : 5,10
  • LiveJournal : 5,88
  • Orkut : 4,25

Nota-Bene : dans leur étude, les auteurs (3) partent d’une mesure du web donnée à 16,12.

Des petits web dans le web. Du genre des petits ruisseaux qui font les grandes rivières. Sur un mode fractal, c’est à dire partageant les mêmes propriétés de graphes invariants d’échelle. Jusqu’à un certain point.

Graphologues contre graphomanes.

Si les graphologues sont (1), (2) et (3) – parmi d’autres – c’est à dire des gens qui font profession de l’établissement de graphes capables d’attester de la navigabilité réelle du web, existent aussi ceux que l’on nommera graphomanes ou graphophobes et qui font profession ou vœu d’abaisser significativement le diamètre dudit graphe jusqu’à idéalement le réduire à un point, c’est à dire – heureusement – une aporie, mais également le rêve cauchemar d’un monde où tout est univoquement connecté à tout, un monde dans lequel chacun est simultanément en contact avec les autres, avec tous les autres, en permanence.

Abolir le fractal.

Si la dimension fractale du web des origines – comme pour l’exemple célèbre de la côté de la Bretagne – permettait l’agrandissement de ses dimensions (donc de sa navigabilité, de sa possible exploration) au fur et à mesure du rapprochement de l’observation , le projet politique des graphomanes est de bâtir des “environnements en apparence semblables à des graphes invariants d’échelle” mais dont la dimension, c’est à dire le spectre de ce qui est observable et/ou navigable se réduit au fur et à mesure ou l’observateur se rapproche. Soit une forme paradoxale de panoptique.

Facebook, YouTube et tant d’autres sont, chacun à leur manière des projets graphomanes. La graphomanie de Facebook est de nature politique (= on est tous amis), celle de YouTube est idéologique (on aime tous les mêmes vidéos rigolotes). Tous ont en commun de tendre vers l’abolition du fractal, c’est à dire d’une certaine forme d’inépuisable. De faire du web un simple nœud. Un seul nœud. L’isolement du graphe. L’avènement du point.

L’avénement du point

Plus que le web lui-même, plus que l’infrastructure qui le porte, c’est une certaine idée du web comme ressource qui est en danger. Danger d’une concentration, une contraction des liens qui le structurent et le forment ; danger d’une surexploitation de cette ressource naturelle (le web) d’un écosystème informationnel (internet) qui pourrait conduire à son épuisement, à son tarissement au seul profit d’immenses et finalement pauvrement réticulés supermarchés relationnels dont Facebook ou YouTube sont aujourd’hui les emblèmes par l’homogénéité des ressources qu’ils proposent, et les “patterns” qu’ils propagent et auto-alimentent.

Le courroux des gourous.

N’étant ni Chris Anderson ni Tim Berners Lee je ne sais si le web est mort ou s’il peut encore être sauvé. Peut-être ne suis-je que l’un des initiés nourris à la rhétorique d’un web libertaire.

J’observe qu’en-deçà d’une certaine granularité, qu’en-deçà d’un certain diamètre, qu’au-dedans de certains sites, ce sur quoi nous passons chaque jour davantage l’essentiel de nos navigations n’a pas davantage à voir avec le web des origines que le couteau de cuisine n’a à voir avec l’écriture.

Je rappelle ce que j’écrivais ici-même il y a déjà 3 ans et un mois de cela, à savoir que cette approche fermée, propriétaire, compartimentée, concurrentielle, épuisable de l’économie du lien hypertexte ne peut mener qu’à des systèmes de nature concentrationnaire. Des écosystèmes de l’enfermement consenti, en parfaite contradiction avec la vision fondatrice de Vannevar Bush et selon laquelle la parcours, le “chemin” (“trail”) importe au moins autant que le lien. Les ingénieries de la sérendipité n’ont pas plus aboli le hasard que ne l’avait fait le coup de dès de Mallarmé, mais elles en ont profondément et durablement changé la nature.

Choisir : le lien ou le chemin (de ronde).

De l’ensemble de mes données personnelles récupérées sur Facebook ne se dégage aucun chemin : seulement la litanie de la liste de mes “amis”. Les liens, la totalité des liens qui dessinent mon “vrai” profil social, mon véritable cheminement, ceux-là restent la propriété – et à la discrétion – du seul Facebook. Dans l’usage même, quotidien de Facebook, de YouTube et de tant d’autres, je ne parcours aucun chemin, je n’effectue aucun autre cheminement que celui qui place mes propres pas dans ceux déjà les plus visibles ou pré-visibles, dans ceux déjà tracés pour moi par d’autres qui m’ont en ces lieux précédés. Ce chemin là, tant il est à l’avance tracé et déterminé, tant il est en permanence scruté et monitoré par d’autres “au-dessus” de moi, ce chemin-là ressemble davantage à une promenade carcérale qu’à une navigation affranchie.

A ce web carcéral fait écho le discours politique d’une criminalisation des pratiques, alibi commode pour porter atteinte à sa neutralité au seul profit d’intérêts marchands et sans égards pour ce qui fut un jour une terra incognita pleine de promesses. Qui l’est encore aujourd’hui. Mais pour combien de temps ?

Au risque du territoire.

Une fois n’est pas coutume, terminons sur un exemple et sur des données factuelles :

Facebook générait 16.68% des pages vues aux Etats-Unis contre 24.27% en novembre 2011, soit une progression annuelle de 60% et de près de 8 points selon Hitwise. Facebook génère donc désormais une page vue sur quatre aux Etats-Unis.

Sur ce critère, Facebook est suivi de Youtube (6.39%). Aux États-unis, cela signifie donc qu’une fois sur quatre, je vais naviguer là où “mes amis” ou “les amis de mes amis” m’envoient naviguer. Comme dans la vraie vie me direz-vous. Précisément.

Le web fut et doit demeurer le lieu d’un décalage, d’une altérité. La territorialisation est le plus grand risque qu’il encourt. S’il ne doit plus avoir vocation qu’à singer numériquement la trame de nos sociabilités ou de nos déambulations dans le monde physique, il cessera alors d’être ce qu’il promettait de devenir : un lieu d’exploration inépuisable, à l’abri du pesant carcan de nos consubstantielles matérialités.


Article initialement publié sur Affordance
Illustrations CC: iamjon*, joelogon, Pilgrim on Wheels, erix!

]]>
http://owni.fr/2010/12/15/le-web-un-point-cest-tout/feed/ 2
Tim Berners-Lee:|| “Les gouvernements devraient encourager l’ouverture des données” http://owni.fr/2010/12/01/tim-berners-lee-gouvernements-ouverture-donnees-web-html5/ http://owni.fr/2010/12/01/tim-berners-lee-gouvernements-ouverture-donnees-web-html5/#comments Wed, 01 Dec 2010 09:18:10 +0000 cyrille chausson (LeMagIT) http://owni.fr/?p=36642 A l’occasion d’une conférence annuelle du W3C qui s’est tenue le 2 novembre dernier à Lyon, la rédaction du MagIT a rencontré Tim Berners-Lee, le père du Web et un des patrons du consortium. Au programme, le Web sémantique, l’ouverture des données, HTML 5 et la fondation W3. Tim Berners-Lee livre aussi sa réponse à l’article de Wired (“Le Web est mort. Vive Internet”).

Le Web sémantique évolue-t-il au rythme que vous espériez ?

Tim Berners-Lee : Je n’avais pas de prévisions à proprement dit. On ne peut pas prédire le futur et savoir véritablement comment les choses évoluent. Je pense en revanche que le Web sémantique s’inscrit dans une croissance exponentielle. Il y a quelques années, lorsque nous avons commencé à parler des Linked Data [un concept qui consiste à relier les données entre elles via le Web et non plus uniquement des pages - le principe même du Web sémantique, NDLR], les gens ont été quelque peu surpris car ils avaient une idée très simple de ce que cela pouvait être, illustrant du coup la nature essentielle du web sémantique. Il existe de très bons et nombreux outils autour du Web sémantique. Les Linked Data, qui demeurent très importantes pour les données publiques des gouvernements, sont une idée relativement simple qui génèrent beaucoup d’enthousiasme.

L’approche sémantique émerge également sur le desktop, comme Nepomuk (un projet de desktop sémantique qui fait une première apparition dans Mandriva 2010), peut être plus rapidement sur le Web. Pourquoi ?

TBL : Ce qui est intéressant dans les Linked Data, c’est qu’il s’agit d’une technologie d’intégration très puissante, qui permet notamment d’intégrer tout forme de technologie : des bases de données, des fichiers XML, des agendas, voire des cartes de visites électroniques. Les bénéfices de cette approche? Avoir sous la main votre vie, tout votre environnement où toutes les données importantes sont connectées entre elles. Avec Nepomuk, ils ont réalisé cette prouesse sur les données privées. Et les données privées sont une partie capitale du Web sémantique. J’utilise moi-même le principe des Linked Data à titre personnel, et il existe probablement d’autres personnes qui le font, mais on ne le sait pas. Et c’est la même chose en entreprise : les données personnelles de l’entreprise sont manipulées à l’intérieur du firewall. On ne sait donc pas que le Web sémantique est finalement utilisé. Les journalistes n’écrivent donc pas dessus. En revanche, ils s’intéressent aux Open Data Cloud, un cloud de données ouvertes pour les gouvernements par exemple. Il existe tout un spectre entre ce qui est public et ce qui est personnel. […] Les entreprises peuvent copier ses données et les utiliser dans leur système d’information.

Quel est aujourd’hui le niveau de maturité des outils en place ?

TBL : Quand on considère le Web sémantique, développer de nouveaux outils est toujours fascinant, tout se connecte et s’auto-alimente. Développer les Open Linked Data est une de nos principales priorités, car il existe tellement de données éparpillées et que grâce à ce procédé, seule la valeur de la donnée compte. Et pas seulement pour les gouvernements, mais également pour la chaîne de valeur par exemple. Il existe une véritable valeur à publier ses données.

Toutefois, je pense qu’il existe encore un marché pour des outils plus puissants. Dans le domaine des interfaces utilisateurs, des outils qui permettent de naviguer dans ces données […] et de mieux les présenter. Il existe une véritable valeur à ouvrir les données, mais une fois ces données connectées entre elles, comment l’utilisateur doit les explorer, comment lui faire passer l’information, pour ensuite produire une analyse pertinente, selon les besoins et les métiers. Les spreadsheets existent bien mais ne sont pas suffisamment performants pour donner du sens à un pool de données.

Tim Berners-Lee, prophète de l'open data?

Les  gouvernements européens devraient-ils davantage exposer leurs données publiques – ce qui est très lié aux projets d’e-administration ?

TBL : Oui bien sûr, ils devraient encourager cette ouverture car tout le monde y est gagnant et cela apporte de meilleurs services aux citoyens. Les gouvernements sont parvenus à résoudre les problèmes de production des données, ils doivent aujourd’hui aller plus loin. […] Donc oui je pousserais les gouvernements à développer les données publiques sur le Web. Mais ces données, liées aux fonctionnements du pays, ne sont qu’une partie de l’Open Data Cloud. Des données géographiques, sur les CDs, les artistes, les découvertes en matière de santé: il existe un grand nombre de type de données prêtes à être publiées sur le Web.

Le degré d’ouverture est-il aujourd’hui suffisant ?

TBL : En France, il y a le cadastre par exemple. La Commission européenne est également très intéressée par l’ouverture des données, pour notamment informer sur l’état des pays en cas de voyage dans Union européenne. En 2009, aux Etats-Unis comme au Royaume Uni, des projets comme data.gov ont été un vrai succès, engageant une compétition transatlantique. […] Ces projets sont certes globaux, mais les données locales sont également très importantes, regardez le cadastre en France. Cette classification n’est pas implantée dans tous les pays. Certains concepts sont nationaux, d’autres mondiaux. […]

Quel conseil donnerez-vous aux développeurs Web concernant HTML 5 ? Attendre que les spécifications soient finalisées pour les intégrer dans leurs développements, ou y passer dès maintenant ?

TBL : Ils doivent dès aujourd’hui s’intéresser à  HTML 5. Il est vrai que les travaux sont encore en cours de standardisation, certaines spécifications sont plus stables que d’autres, mais un bon développeur écoute toujours où se portent les débats, où en sont les travaux du W3C, quels éléments sont susceptibles de changer. Il est important de comprendre l’étendue des possibilités de HTML 5. Il est également nécessaire de comprendre le calendrier d’implémentation des fonctions dans les différents navigateurs. Mais HTML 5 est conçu pour rester compatible avec l’existant. Donc voici mes conseils : apprenez le, utilisez le, expérimentez. Vous comprendrez également vers quelle direction se dirige le standard, et si vous le souhaitez, prenez part aux débat du groupe de travail au W3C. Les travaux sont certes en cours, mais des éléments de HTML 5 sont aujourd’hui largement stables.

Comment se porte aujourd’hui votre fondation W3 ?

TBL : Aujourd’hui, 20% seulement de la population mondiale utilise le Web. Il en reste encore 80%. L’avons-nous développé uniquement pour nous ? A-t-il été développé par les pays développés pour les pays développés ? Nous avons donc décidé de monter cette fondation pour répondre à cette question, dont la portée est plutôt très large. Nous avons été très chanceux d’obtenir une première subvention sur cinq ans de la part de la Knight Foundation, pour démarrer. Nous avons commencé à regarder comment combler les fossés qui existent entre ceux qui ont accès au web et ceux qui ne l’ont pas. Et il existe des résultats intéressants. Dans les pays en développement, on mise en premier sur l’apport de l’eau, des soins médicaux puis on favoris les développements économiques. Mais Internet est considéré comme un luxe. Pourtant, il ne doit pas être pris de la sorte: il doit être vu comme un élément indispensable auquel les gens doivent avoir accès. Avec une connexion bas débit, ils peuvent trouver un emploi, obtenir de l’information sur leur environnement, l’utiliser pour partager des informations sur la santé. L’idée est que ces personnes entrent dans “l’Internet Society”. La Web Foundation travaille en ce sens. Nous nous concentrons aujourd’hui sur l’Afrique, mais la portée est bien plus vaste. Et portera également sur l’accès à Internet dans les pays développés.[...]


LeMagIT : La magazine Wired a décrété la mort du Web, invoquant notamment le schéma des applications mobiles qui ne donnent plus accès au Web et aux pages HTML,  mais aux seules applications qui sont elles-mêmes connectées à Internet. Quelle est votre position ?

Cliquer ici pour voir la vidéo.

Article initialement publié sur LeMagIT, sous le titre “Tim Berners-Lee : ‘les développeurs doivent s’intéresser dès aujourd’hui à

HTML 5′”

Illustration CC FlickR par Dunechaser, Documentally

]]>
http://owni.fr/2010/12/01/tim-berners-lee-gouvernements-ouverture-donnees-web-html5/feed/ 1
La plateforme Web http://owni.fr/2010/10/06/la-plateforme-web/ http://owni.fr/2010/10/06/la-plateforme-web/#comments Wed, 06 Oct 2010 13:05:28 +0000 Karl Dubost http://owni.fr/?p=30558

I have found that, having started this set of notes in 1990 in the (for me) novel medium of hypertext, it has been difficult to tear free of it: my attempts to lend hierachical or serial order have been doomed to failure. Further, as ideas and these web pages have evolved, it has been important for me to be able to reorganize my thoughts, grab a new leaf, shake the tree and regard it as the root. So the reader needs to be aware of this, that each page may be an attempt to put across a given concept serially, but if you are looking for an order of concepts and subconcepts, you have as much hope as you would with words in the dictionary.

Berners-Lee, Tim,
Design Issues, Preface

Le Web public n’a que 17 ans. C’est peu si on le compare au cinéma (technique des images animées) ou au livre (technique des textes imprimés). Mais il existe déjà une mythologie à son propos portée autant par ses détracteurs que par ses passionnés. Chaque personne y ajoute son brin d’histoire, d’approximation ainsi que de prédictions. Cet article va donc me servir de document de référence pour le futur. Il ne se veut pas polémique.

Une définition du Web

Le Web est défini dans le document d’Architecture du Web (version originale) traduit en français par Frédéric Laurent

Le World Wide Web (WWW ou plus simplement le Web) est un espace d’informations composé d’éléments caractérisés par identifiants globaux, nommés des identifiants de ressource uniforme [ndt. Uniform Resource Identifier](URI).

Ce paragraphe de l’introduction est très important. Le Web repose sur des « choses » qui sont identifiées par des « URIs. »

L’introduction se poursuit et définit « les trois bases architecturales du web »

Les interactions sont définies par un protocole. Les protocoles sont nombreux. Notez que le document d’architecture Web utilise dans tous les exemples HTTP, mais le document ne limite pas les interactions au protocole HTTP. FTP, SMTP, etc. sont d’autres protocoles utilisables.

Les formats correspondent à la représentation des données identifiées (URI) d’une ressource. Le document d’architecture du web est clair. Il « ne contraint pas les fournisseurs de contenu sur la nature des formats qu’ils peuvent employer. » C’est à dire tout comme HTTP n’est pas le seul protocole utilisable, HTML n’est pas le seul format. Pensez par exemple à Atom, SVG, RDF, etc.

Conclusion : la pièce essentielle de l’architecture du Web est l’URI. Cependant il est très courant d’utiliser HTTP pour les interactions et HTML pour les formats.

Les mythologies

La mort du Web

On ne compte plus les funérailles du Web. Non pas que cela n’arrivera pas un jour, mais que les annonces se veulent toutes sensationnelles et très précoces. J’ai écrit un article sur la signification de l’Open Web. L’article récent de Wired dont beaucoup de gens parle est idiot, lire le contre-article de Rob Beschizza ainsi que cette vidéo hilarante Wired Magazine is dead.

Le Web et les applications propriétaires

Plusieurs fois, j’ai lu sur les applications propriétaires étant l’antidote du Web. C’est complètement orthogonal. Les applications propriétaires ont toujours été là. Il y a de nombreux serveurs qui fonctionnent sous la technologie serveur (propriétaire) de Microsoft. Pourtant le Web est toujours utilisable. Les applications mobile dans les tentatives de jardin clos de Apple et autres ne sont que des applications qui font partie de l’écosystème. Certaines utilisent le Web, d’autres non. Rappelez-vous… utilisez le Web c’est utiliser les URIs, un protocole d’interactions et des formats. Les applications Web mobiles qui utilisent des URIs sont en interactions avec un serveur. Il est tout à fait possible de recréer les mêmes interactions sur son desktop ou sur son serveur en jouant avec l’API du service.

Le Web et les brevets

Le danger des développements propriétaires ne se trouvent pas au niveau logiciel mais bien au niveau des formats, protocoles, etc. C’est à dire des couches élémentaires de la technologie. Les brevets sont une véritable menace pour le Web, pas les « environnements clos » et les « applications propriétaires. » Un autre danger est le monopole d’entreprise. Lorsqu’une entreprise devient trop grosse et maîtrise la majorité des interactions, il y a danger d’influence. Cependant la jeune histoire du Web nous montre que le phénomène s’est régulé. Il y a une époque ou la page de NCSA What’s New? récoltait la majorité du trafic, puis ce fût la page d’accueil de Yahoo! ainsi que la page d’accueil de Netscape, etc.

Le Web est un rêve utopiste

Il n’est pas plus utopiste, que pédophile, que nazi, que hippie, etc. C’est une technologie qui permet l’échange d’information de manière distribuée et décentralisée. Elle est relativement robuste, car un lien peut casser sans que l’ensemble du système soit en péril. Son architecture technologique crée des interactions qui donnent la possibilité de s’extraire des systèmes centralisés et parfois de les déstabiliser. Ce n’est pas une volonté politique de la technologie, c’est juste la façon dont elle est construite.

Le Web est ce qui se passe dans le navigateur

Non. Le Web fonctionne avec de nombreuses applications hors le navigateur. Lorsque vous utilisez un logiciel client particulier utilisant une API communiquant par HTTP pour échanger des morceaux d’information identifiés par des URIs, vous utilisez le Web, même si cela veut dire que le protocole, le format et l’identifiant vous sont complètement opaques.

Le Web est HTML

Non. Le HTML est un format, conteneur de données, qui permet éventuellement de donner une représentation d’une ressource identifiée par une URI. Le HTML peut-être utilisé en dehors du Web. L’aspect pratique du html est que c’est un format hypertexte, c’est à dire qu’il prolonge l’interaction.

Protocole et interactions riches

Il existe des possibilités de protocoles et d’interactions riches : Annotea (développement arrêté), Salmon Protocol, etc. ceux-ci utilisant l’architecture Web.

>> Article publié initialement sur La Grange en Creative Commons By-nc-sa

>> Illustration FlickR CC : Bogdan Suditu

]]>
http://owni.fr/2010/10/06/la-plateforme-web/feed/ 6
Serge Soudoplatoff: ||”Internet, c’est assez rigolo” http://owni.fr/2010/07/06/serge-soudoplatoff-internet-cest-assez-rigolo/ http://owni.fr/2010/07/06/serge-soudoplatoff-internet-cest-assez-rigolo/#comments Tue, 06 Jul 2010 14:25:25 +0000 Guillaume Ledit http://owni.fr/?p=19564
Depuis plus d’un quart de siècle, soit à peu près l’âge moyen de l’équipe éditoriale d’OWNI, Serge Soudoplatoff se consacre à Internet avec un amour débordant. Il le dit clairement sur son blog, avec l’enthousiasme franc, presque naïf, d’un early-adopter jamais déçu (?): La rupture Internet, sous-titré “la passion de Serge Soudoplatoff pour Internet“. Alors que les membres de la soucoupe jouaient encore aux LEGO, ce chercheur en informatique au centre de recherche d’IBM découvrait avec délice Internet. C’était en 1984, exactement.

Après un passage à l’Institut Géographique National (IGN), il devient directeur du centre de recherche en informatique chez Cap Gemini Innovation puis entre à la direction de l’innovation de France Telecom. Il est aujourd’hui à la tête de sa propre société, Hyperdoxe, qui fait du conseil en stratégie informatique.

Bref, un ponte cool, du genre à ponctuer ses mails par un smiley. Animé par une véritable passion pour les mondes virtuels et les serious game, il fait œuvre de pédagogie tant dans des articles approfondis que dans les cours qu’il assure à l’Hetic. Il prépare en ce moment la suite de son premier livre, Avec Internet, où allons nous?. Comme la question nous intéresse aussi, nous nous sommes connectés à Skype et avons échangé avec Serge Soudoplatoff.


OWNI: Au moment où vous découvrez Internet, on vous prend pour un fou ?

Serge Soudoplatoff: Fou, je ne dirais pas, les gens avaient plutôt l’impression que l’on se faisait plaisir. En 1984 très peu de gens parlait d’Internet. Moi je j’utilisais, je trouvais ça intéressant. On s’en servait et on trouvait ça assez rigolo en fait. Personne ne voyait vers où les usages se dirigeaient. Il fallait être assez visionnaire à cette époque pour voir ce qu’on pouvait en faire.

Les échanges avaient lieu uniquement parmi les membres de la communauté scientifique?

Il faut rappeler que dans les années 1980, seuls les centres de recherche étaient connectés. Le grand apport du Livre blanc d’Al Gore, publié en 1991, est d’avoir levé la contrainte d’un Internet réservé aux centres de recherche.

Internet s’est en effet développé au sein de communautés de chercheurs.

Maintenant, quand on browse le web sur l’histoire d’Internet, on trouve des chercheurs qui disaient dans les années 1960: “ça ne sert à rien de faire communiquer nos ordinateurs”. L’esprit visionnaire n’est absolument pas lié au fait qu’on soit un chercheur.

Spécimen préhistorique d'ordinateur personnel

La transition vers le paysage que l’on connaît actuellement s’est-elle faite par l’intermédiaire de ces mêmes passionnés?

Pour moi, ce qui fait qu’Internet prend un autre essor c’est la combinaison de deux éléments: l’invention du web par Tim Berners-Lee, (qui pour moi est une régression), et le fait que derrière Al Gore il y ait le capital-risque américain.

Au début des années 1990, c’est la déprime dans la Silicon Valley. Il n’y a plus la puce pour assurer des leviers de croissance extraordinaires. Tout le secteur de l’informatique au sens traditionnel du terme est déjà verrouillé.

Les Venture capital se posent la question de savoir où placer leur argent pour bénéficier des mêmes effets de levier. Arrive Internet et tout le travail qu’a fait Al Gore pour le libéraliser et investir en masse.

Fin des années 1990, ça allait jusqu’à 25 milliards de dollars par trimestre d’investis dans le high-tech. Aujourd’hui, on arrive à la même somme sur un an.

Internet est donc fondamentalement libéral au sens économique du terme ? Sans le libéralisme, Internet n’existerait pas ?

Sans le venture-capital. J’ai horreur des termes comme libéral ou libéralisme parce qu’on y met tout et n’importe quoi.

On peut revenir sur le fait que vous considériez l’apport de Tim Berners Lee comme une régession ?

Si vous voulez, le premier Internet est en p2p. C’est à dire en clair: mon ordinateur est connecté à ton ordinateur, mon adresse IP connaît ton adresse IP, et je peux aller chez toi comme toi tu peux aller chez moi.

Qu’est-ce que l’invention du web? C’est le retour vers une architecture client-serveur.

Le retour vers le modèle de la télé où au lieu d’accéder à l’ordinateur de quelqu’un d’autre, j’accède à du contenu. C’est une régression sur le plan philosophique. Ceci dit, je pense qu’il fallait passer par cette étape.

Pour moi, ce qu’on appelle le web2.0, c’est remettre du p2p dans le cadre d’une architecture client-serveur. D’ailleurs, les seuls logiciels qui sont vraiment dans la philosophie du début d’Internet c’est tous ceux qu’on veut empêcher: E-mule, Napster etc…

Il n’y a pas que moi qui le dit, les historiens de l’Internet vous diront la même chose. Régression est peut-être un terme un peu fort mais c’est vrai que d’un seul coup on revient vers le modèle de la télé…

Ici commence l'Interouèbe

En parallèle en France, le minitel a déjà bien décollé. Qu’est ce qu’on peut dire de cette exception française?

Alors d’abord, cela a commencé avec les BBS ((le Bulletin Board System est un serveur équipé d’un logiciel offrant des services d’échange de messages, de stockage et d’échange de fichiers via un ou plusieurs modems reliés à des lignes téléphoniques)) Si vous voulez regardez l’équivalent du minitel aux États-Unis ce sont les Bulletin Board Systems.

A quel moment, en tant qu’observateur privilégié, avez-vous senti qu’un des deux allait écraser l’autre?

Ce qui apparaissait de manière très évidente, c’est que le problème numéro 1 du minitel c’était son modèle économique.

Ce qui fait le succès d’un service n’est pas tant sa qualité  que son modèle économique.

Or, le modèle économique d’un paiement à la durée est un modèle qui in fine reste un frein pour le développement des usages.

Ceci dit, on peut analyser le gratuit sur Internet comme étant une guerre Yahoo contre AOL. Si on fait l’histoire du développement des BBS aux États-Unis, il faut savoir que l’appel local est gratuit, dans un cadre forfaitaire. Donc un BBS c’était un ordinateur-serveur sur lequel tout le monde se connectait. On y trouvait du chat, de l’e-mail et un peu de contenu: tout les services dits “de base”. Le seul problème c’est que quand j’étais à San Francisco je pouvais pas aller sur un BBS à Los Angeles, encore moins à New-York.

Qu’ont fait Compuserve et AOL? Grosso modo ils ont doublé les opérateurs de télécom: ils ont fait leurs propres tuyaux, et ont développé des Point of Presence (Un POP est une interface réseau (les fameux POP) . Du coup, tout le monde se connectait localement à un BBS mais avec des réplications de base de données. C’était finalement une manière de doubler les opérateurs de télécoms. Et comme ils voulaient pas faire payer à la durée, ils faisaient des abonnements sur la data.

Ensuite arrive Yahoo. Et que fait Yahoo dans les années 1990? Il fait la même chose mais en gratuit. La guerre du contenu gratuit s’est fait uniquement pour détrôner AOL et Compuserve. AOL a résisté, pas terriblement, et Compuserve est mort.

"Les gens n'ont pas de carte d'Internet. Ils cherchent. Faites en sorte qu'ils vous trouvent"

En tant qu’ancien membre de l’IGN, que pensez-vous du mouvement de spatialisation de la pensée auquel on assiste?

Ce que je peux dire, c’est que plein de gens ne savent pas lire les cartes. Quand je fais des conférences, j’emmène les gens dans le web, et je leur explique que pour moi, le véritable paradigme est que je les emmène sur une terra incognita. De moins en moins tout de même, mais l’idée est qu’on arrive sur une île où les gens parlent un autre langage etc.

Pierre Lévy et Michel Serres ont écrit des choses beaucoup plus approfondies que moi sur ces questions. C’est très intéressant sur le plan didactique. Ceci dit, beaucoup de gens ne sont pas du tout à l’aise avec la représentation cartographique. Dès fois, il faut savoir ne pas les utiliser.

Pour revenir sur cette idée de terra incognita, pensez-vous qu’on en soit encore là avec les développements récents des usages et pratiques de l’Internet?

Il existe encore évidemment plein de terra incognitas à découvrir. Ce qu’il y a de sûr c’est qu’on est bien loin des années 1990 où quand je faisais venir les gens chez moi pour qu’ils découvrent Internet, ils se trouvaient face à une véritable terra incognita. Ils découvraient les premiers ports. Altavista démarrait tout juste. Rien que ça pour les gens c’était fascinant. J’avais une copine colombienne qui découvrait qu’elle pouvait lire les nouvelles de son pays depuis chez moi: elle était ébahie.

Quand je montrais aux gens les newsgroups, je peux vous assurer que les IRC étaient des trucs que l’on montrait à peu de gens. Le langage était hermétique, personne ne comprenait.

On se plaint du langage SMS mais allez voir ce que c’est qu’un langage de geeks dans un forum IRC du début d’Internet

Aujourd’hui, je rencontre rarement quelqu’un qui n’a jamais été dans Internet. Les gens ont a minima un e-mail et ils ont surfé sur Google.

Les gros continents inconnus du moment, c’est quoi?

Par définition, je ne les connais pas (rires). C’est marrant parce que j’ai rarement vu les choses se faire comme les gens le prévoyaient.

Avant Twitter, on parlait très peu de web temps réel finalement. Tout le monde parlait de web sémantique.

Moi, je parle beaucoup de web virtuel, et puis c’est Twitter qui nous est tombé sur le coin de la figure.

Je pense que d’un côté, on observe tout le phénomène de débordement d’Internet dans les activités au quotidien: c’est santé 2.0, gouvernement 2.0 etc. D’un autre côté il y a toutes les choses auxquelles on ne songe pas souvent et qui ne sont pas forcément technologique: une des grandes terra incognita, c’est le local. Je n’ai aucun problème pour savoir ce qu’il se passe dans l’ambassade américaine à Téhéran. En revanche, on est dimanche, il est 19h55, je n’ai pas de pain, j’ai trois boulangeries en bas de chez moi qui ferment à 20h00 et je n’ai pas le temps d’aller les faire toutes les trois. Je veux savoir laquelle des trois a du pain: je n’ai pas ça sur Internet.

L’hyperlocal commence pourtant à émerger avec Foursquare ou dans le domaine de l’information…

Oui, ça commence, et il va y avoir une guerre sanglante entre Google et Pages Jaunes là dessus. Contrairement à ce qu’on pense, Pages Jaunes va dans le bon sens.

Vous décrivez Internet comme un mode de gouvernance en réseau et sans chef. Peut-on dire que cette vision est encore utopiste? Vous considérez-vous vous-même comme un utopiste?

Attendez, ce n’est pas une vision utopiste, c’est un constat que je fais: Internet s’est fait dans un mode de gouvernance anti-pyramidale. Je vous conseille de lire le livre Et Dieu créa l’Internet où il est bien dit que on regardait ce que faisaient les opérateurs de télécoms et on faisait exactement l’inverse.

La gouvernance de l’Internet telle qu’elle est aujourd’hui est très pratique.

On ne propose pas une norme si on ne propose pas un bout de code pour implémenter cette norme. Autant dire qu’on est loin de la logique “maîtrise d’ouvrage-maîtrise d’œuvre”. Internet est pragmatique.

Les forums, qui apparaissent maintenant un peu old-school, restent pour vous la quintessence du web?

Franchement, j’ai pas trouvé mieux pour illustrer le web2.0 que les forums de discussions.

C’est l’un des rares endroit où je vois s’échanger beaucoup de choses du quotidien qui débloquent énormément de situations.

Je ne parle pas des forums politiques par exemple qui sont bourrés de trolls, mais je parle des forums pratico-pratiques. Je parle des forums de bricolage, de matériel informatique. Mon chouchou c’est celui des enseignants du primaire: 89 000 profs qui se sont échangés 4,5 millions de messages. Je parle d’un autre de mes chouchous qui est le forum des gens qui ont des problèmes de thyroïde, bourré à la fois d’empathie et de sérieux.

Dedans, j’y vois du sens et de la richesse, ce que je n’observe pas dans Facebook, ou Linkedin.

Je n’ai pas trouvé plus bel endroit d’expression de l’échange horizontal des gens que les forums de discussions.

Ils sont bien installés et continue de croître et d’embellir. Doctissimo, le numéro un en France, c’est quand même un nouveau membre par minute, et c’est 2,5 à 3 millions de nouveaux messages par mois. A tel point que la ministre de la Santé veut faire un portail santé en s’en inspirant.

Vous dites également qu’Internet n’a rien inventé et qu’il a permis à des formes sociales qui préexistaient de se développer. Il permet également d’en redécouvrir?

Oui évidemment. La mutualisation en est un très bel exemple. Je suis beaucoup les sites de prêts en social-lending aux États-Unis. Ça se fait dans le monde entier sauf en France: merci à la règlementation bancaire qui empêche l’innovation, mais c’est comme ça.

Prosper, Circle Landing, PPDI en Chine: tous ces sites qui permettent aux particuliers de se prêter entre eux sont finalement une redécouverte de la tontine. C’est la tontine à la sauce Internet. On est proche du modèle de microcrédit développé par Mohammad Yunus.

Dans moins de dans ans, on aura aux Etats-Unis des sites de santé en p2p.

Moi je rigole parce qu’un site de santé en p2p c’est une mutuelle. Aujourd’hui, l’outil est là, je suis sûr qu’on va revenir à l’esprit mutualiste. On y est déjà.

Comment jugez-vous la Hadopi, la Loppsi, toutes ces lois qui tentent de restreindre la libertés des internautes?

J’essaye d’éviter de faire des comparaisons politiques de restriction de libertés. J’ai fait l’objet d’un débat récemment dans VoxPop avec Patrick Eudeline, qui est un musicien pro-Hadopi et très anti-Internet. C’était à mourir de rire. Il dit qu’Internet a tué la musique. Je trouve que pour tuer la musique, il faut y mettre le paquet et que Internet ne suffit pas.

Ce n’est pas le côté politique qui m’intéresse. Oui, il y a toujours eu des gouvernements qui ont voulu contrôler, d’autres qui ont plus laissé faire: ça, c’est la vie.

En revanche, là où Hadopi m’a gêné c’est par le fait que ça renforçait une ancienne forme et ça n’aidait pas à innover, à promouvoir une nouvelle forme. Grosso modo, si au lieu de se battre pour revenir à avant, les majors se disaient: “le monde évolue”, et se mettait à racheter des sites commes Sellaband, comme Mymajor etc… Si elles se mettaient en mode 2.0, là ce serait innovant.

C’est comme le social lending: circle lending qui était le numéro trois aux Etats-Unis a été racheté par Virgin et est devenu Virgin Money. Moi, ce que je trouve dommage avec des lois comme Hadopi c’est que finalement, ça empêche d’innover. On ne peut pas s’élever contre une loi qui est faite pour contrôler quelque chose de considéré comme hors-la-loi. C’est dommage.

On aurait mieux fait de faire coller la loi aux usages plutôt que de renforcer une loi du passé.

Sur les questions de privations de liberté, je laisse les autres le faire, la Quadrature s’en charge très bien. Mon débat se situe sur le plan de savoir comment un pays innove et se transforme.

Dans le cadre de votre activité de conseil, êtes-vous confronté aux difficultés des entreprises à passer au mode de communication horizontale qu’implique Internet? Et comment les aidez-vous à changer de paradigme?

C’est pas facile de changer de paradigme. Je cite toujours le cas “Lippi” que vous trouverez sur mon blog et celui de Billaut.

C’est une entreprise de gréage industriel de 300 personnes qui a fait la totale. La totale est un triptyque “structure-outil-comportements”. D’abord, Lippi forme les gens aux technologies du numérique (comportement). Ensuite, Lippi change sa structure, change entre autres le rôle du middle management et enfin, l’entreprise utilise les moyens modernes en interne: Twitter est la colonne informationnelle de l’entreprise. Quand on est 300 c’est déjà pas facile, à 30 000 c’est encore plus difficile.

De toutes façons, on sera obligés d’y passer puisque les clients, eux, sont déjà en mode réseau. Les jeunes collaborateurs qui arrivent aujourd’hui n’ont pas du tout la même culture, et les autres collaborateurs commencent à être gêné au quotidien.

Au quotidien aujourd’hui, on se doit d’être sur les réseaux sociaux, on se doit d’être sur YouTube

Quand on est dans des entreprise où tout cela est bloqué on arrive à un moment où finalement vous pouvez plus bosser efficacement. Il va donc bien falloir que ça change puisque c’est une bête question d’efficacité.

Cette analyse là peut-elle s’appliquer aux gouvernements et aux institutions? Le problème est-il franco-français?

Encore une fois, on va être obligé d’y passer, il n’y a pas le choix. C’est comme tout Internet, c’est anglo-saxon, c’est la culture communautaire. Cette culture est très peu développée en France, où plutôt seulement dans certaines zones.

On est pris dans un mouvement, on va être obligé d’y aller. Il faudrait que ça se fasse dans la souplesse, pas dans la tension.

Lors de votre intervention aux Ernest, vous avez résumer le dilemme ainsi mais sans y répondre me semble-t-il : face à la rupture Internet, est-ce qu’on se comportera comme des Egyptiens ou comme des Grecs? Dans votre conférence, on vous sent optimiste: l’êtes-vous vraiment?

Moi je dis aux gens: “c’est à vous de choisir”. Alors évidemment, comme je dis aux gens que les Egyptiens se sont effondrés et que les Grecs ont embellis et prospéré c’est dur. Je vais vous dire pourquoi je fais ça: à chaque fois que j’ai des gens qui sont réticents, qui me disent que tout ce que je dis c’est des bêtises, que le monde ne va pas évoluer comme ça, ma réponse c’est : “est-ce que t’es pas en train de nous la faire à l’égyptienne?”.

Je crois que c’est un choix individuel de toutes façons. La chance qu’on a aujourd’hui c’est que si on ne se sent pas bien en France, on peut aller ailleurs.

En même temps, Internet est une construction mondiale, il y a des normes internationales qui ne dépendent pas uniquement de chaque internaute.

Je vous rappelle que chaque internaute peut contribuer à l’IETF, l’Internet Engeneering Taskforce, qui est l’organisation qui fait le moteur d’Internet, qui fait les normes technologiques. Je vous rappelle qu’elle n’a pas d’existence juridique, et qu’elle se définit comme un ensemble flou qui réunit des gens passionnés par le sujet de faire évoluer la technologie Internet. Le tao de l’IETF c’est “nous rejetons les présidents et le vote, nos croyons au consensus grossier et au bout de code qui marche”.

Quels sont à votre avis les avantages et les risques pour un gouvernement à libérer ses données, de permettre à tout un chacun de les manipuler?

On peut raisonner entreprise: l’avantage c’est que d’un seul coup, tout doit mieux marcher… en théorie. Data.gov, c’est open311.org. C’est une ville qui ouvre ses API et laisse faire les programmeurs en acceptant de jouer le jeu.

Je suis une entreprise ou un gouvernement, d’un seul coup, le monde devient extrêmement complexe avec plein d’interactions. Comment je peux gérer cette complexité? En travaillant avec les gens. Contrairement à ce que pense beaucoup de gens, le crowdsourcing, c’est très bien. On dit, et qu’est ce que c’est franchouillard, que c’est faire travailler les gens sans faire payer. Je ne suis pas d’accord.

Il n’y a que la communauté qui peut gérer un bien commun.

Le premier gain qu’aurait un gouvernement à faire de l’opendata c’est de l’efficacité dans la gestion des choses au quotidien. Contrairement à ce qu’on pense, c’est pas les grandes idées qui font bouger les choses. La vérité, c’est “est-ce qu’on mon maire entretient et développe bien ma ville?”. Je vote pour celui qui est efficace, qu’il soit de droite ou de gauche.

L’opendata est avant tout une question d’efficacité.

N’y a-t-il pas un risque qu’il y ait trop de données, et qu’on arrive plus à en faire émerger du sens?

C’est l’effet longue-traîne. Vous raisonnez comme si il n’y avait qu’un seul point d’entrée . Tout le monde n’a pas besoin d’accéder à toute les données. Mais il faut le maximum de données, pour que chacun puisse les utiliser en fonction de ses centres d’intérêt.

L’opendata, c’est pas seulement ouvrir ses données, mais c’est ouvrir ses API

Autrement dit, j’accepte de faire un système d’information qui n’est pas fini et je laisse la communauté finir mon système d’information. Vous allez sur AirParif, vous pouvez télécharger les données, mais pas rentrer dans les API Airparif. J’aimerais que les programmeurs puissent attaquer les API d’Airparif.

En revanche, il faut effectivement une couche de la communauté entre les gens et les données. On ne peut pas mettre brutalement les gens en face des données. Le génie d’opendata et d’open311 c’est de mettre une couche entre les deux.

Je ne crois pas au marketing one to one, je ne crois pas au marketing de masse, je crois au cosdesign. Mais pas avec n’importe qui, avec des passionnés. Ce sont eux qui feront le relais entre les données, les gens et les usages.

Crédits photos CC FlickR: mikeleeorg, impresa.mccabe, FindYourSearch, codiceinternet, victornuno, bionicteaching.

]]>
http://owni.fr/2010/07/06/serge-soudoplatoff-internet-cest-assez-rigolo/feed/ 0
Les interfaces graphiques du web sémantique http://owni.fr/2010/05/11/les-interfaces-graphiques-du-web-semantique/ http://owni.fr/2010/05/11/les-interfaces-graphiques-du-web-semantique/#comments Tue, 11 May 2010 09:01:33 +0000 Christian Fauré http://owni.fr/?p=15185 Bien souvent, quand je vois les interfaces graphiques des applications du web sémantique, cela me fait penser à du Picasso.

Paradoxe : quand les données sont structurées, les interfaces graphiques donnent mécaniquement une impression de dé-structuration.

Si le document Word est le modèle de document qui a inspiré la page du web de document, alors on pourrait peut-être penser que c’est le tableur qui représente le modèle de document du web de données? On pourrait certainement le croire quand on regarde le très justement nommé Tabulator de Berners-Lee, outil pour « surfer sur du RDF » :

Et bien non, c’est la carte et la localisation qui « prennent ». Ainsi, lorsque Tim Berners-Lee a présenté les résultats des démarches d’ouverture des données publiques à TED 2010, il n’a présenté que des interfaces basées sur la géolocalisation des données :

Cliquer ici pour voir la vidéo.

Retour aux fondamentaux finalement, puisqu’on se souvient que les APIs et les mashups du web 2.0 ont commencé avec Google Maps. Ce qui tend à montrer que la mise à disposition de données structurées sur le web s’inscrit dans une logique de re-territorialisation : rien n’est plus démonstratif que de projeter les données sur une carte.

Imaginez par exemple que vous soyez une bibliothèque et que vous vouliez publier vos données en RDF : que pouvez-vous espérer qu’il en ressorte ? Et quelles interfaces pourront être proposées, par des tiers, quand les données seront disponibles ? Avoir les données agrégées autour d’une œuvre ou d’un auteur est bien utile mais l’on retombe sur un web documentaire classique même si le moteur est en RDF.

Alors on repense à cette histoire de re-territorialisation, et on imagine immédiatement des services de localisation des ouvrages dans les bibliothèques. On revient encore à la carte en projetant sur elle les données, même si, en l’occurrence, c’est typiquement un réflexe d’institution que de vouloir in fine « router » et ramener le public dans ses murs.

Si nous devions formuler correctement la question, il faudrait dire : « Quelles sont les informations territoriales que je possède ? » Et dans notre cas : « quelles informations territoriales possède une bibliothèque ? », si l’on retient l’idée qu’il y a corrélation entre l’ouverture des données structurées et une logique de re-territorialisation.

Pour y répondre, il faudrait tirer le fil d’une grappe RDF par les concepts de localisation : tout voir au travers du filtre d’un territoire : maison, rue, quartier, ville, région, pays, etc. Cette « perspective de données » nous dirait certainement beaucoup de choses et stimulerait l’intérêt d’avoir des interfaces graphiques appropriées. Pour l’heure, j’ai l’impression que cela tend vers une interface à la SimCity avec Google Maps, Open StreetView ou l’IGN qui fourniraient le fond d’écran des applications du web sémantique.

J’ai parlé du territoire, c’est-à-dire de l’espace, mais c’est aussi vrai du temps, ici le projet Simile avait déjà tracé la voie. Ce sont les informations avec une métadonnée temporelle ou spatiale dont le « marché » a besoin en priorité.

Billet initialement sur le blog de Christian Fauré

Illustration CC Flickr par yoyolabellut

]]>
http://owni.fr/2010/05/11/les-interfaces-graphiques-du-web-semantique/feed/ 1
GB: tous les services publics en ligne d’ici quatre ans http://owni.fr/2010/03/21/gb-tous-les-services-publics-en-ligne-dici-quatre-ans/ http://owni.fr/2010/03/21/gb-tous-les-services-publics-en-ligne-dici-quatre-ans/#comments Sun, 21 Mar 2010 16:54:38 +0000 Damien Van Achter http://owni.fr/?p=10564 Selon le Times, le Premier ministre Gordon Brown présentera ce lundi un ambitieux plan visant la mise en ligne de tous les services publics britanniques d’ici les quatre prochaines années. EDIT: D’après le Guardian, Brown compare d’ailleurs la propagation de l’internet à large bande dans tous les foyers avec celle de l’électricité …
Tous les Britanniques disposeront à terme de leur propre page Internet et accéderont via un identifiant unique à toute une série de services locaux et nationaux (réclamer un passeport, un document officiel, payer leurs impôts, réclamer une plaque d’immatriculation, etc.) Poussé dans le dos par Tim Berners-Lee, l’un des papas du web,  Gordon Brown imagine même de permettre aux sujets de sa Majesté d’entrer par ce biais en contact avec les profs de leurs enfants ou de réclamer des conseils médicaux via une sorte de Facebook adapté à ce genre d’opérations officielles.
“I don’t want to go to a government office to do a government thing. It should all be online (…) That saves time for people and it saves money for the Government — the processing of a piece of paper and mailing it back costs many times more than it costs to process something electronically. There will come a point where you don’t need all the physical offices any more.”- Sir Tim Berners-Lee
Évidemment, ce plan pose beaucoup de questions, notamment sur le respect de la vie privée des utilisateurs, mais aussi sur le nombre d’emplois dans la fonction publique qui seront supprimés par la mise en ligne de tous ces services. Pour les utilisateurs aussi, le changement risque d’être particulièrement conséquent. Un “digital gateway”, sorte de guichet physique unique, sera installé dans les administrations afin de réaliser un “phasing out” progressif et permettre à tous les contribuables mal à l’aise avec la manipulation des outils informatiques de prendre des renseignements et effectuer leurs opérations en étant accompagnés.
Selon le cabinet PriceWaterhouse Coopers, le gouvernement économisera grâce à ce plan au minimum 900 millions de £ de frais de fonctionnement par an.
Qu’en est-il en Belgique ? Et en France ?
Où en sont vos administrations dans la mise en ligne de leurs documents ? Ces initiatives sont-elles purement locales ou décidées à l’échelon national ? N’hésitez pas à partager en commentaire vos bonnes et mauvaises expériences en la matière.
Billet initialement publié sur Blogging the news
]]>
http://owni.fr/2010/03/21/gb-tous-les-services-publics-en-ligne-dici-quatre-ans/feed/ 0
La troisième frontière du Web http://owni.fr/2010/03/12/la-troisieme-frontiere-du-web/ http://owni.fr/2010/03/12/la-troisieme-frontiere-du-web/#comments Fri, 12 Mar 2010 09:12:23 +0000 Patrice Lamothe http://owni.fr/?p=9960 PDG de Pearltrees et auteur du blog Cratyle, Patrice Lamothe expose dans ce billet les différentes phase de développement du Web. Parti d’un micro-démocratie où “chacun disposait de tous les attributs d’un média”, le réseau semble actuellement en mesure de franchir une frontière : celle qui vise à permettre à chacun d’être un média complet.

3173669231_8933744372

Chacun sent que le Web entre aujourd’hui dans une nouvelle phase de son développement.

Les tentatives de synthèse fleurissent, mais ne semblent pas suffire à rendre compte des évolutions en cours. Peut-être sont-elles encore trop vagues? ou déjà trop précises? Le concept de “Web Squared” s’ajuste assez bien au “Web 2.0″ passé, mais il ne permet pas vraiment de saisir la nature des changements, moins encore d’en déduire les effets concrets. Le “Web en temps réel”, l’une des principales expressions du moment, ne nous renseigne pas beaucoup plus sur la portée de ces changements.

Peut-être trouvera-t-on d’ailleurs inutile de vouloir décrire les évolutions d’ensemble du Web? Il y aurait de très bonnes raisons pour celà. Assemblage de ressources techniques, de fonctionnalités et d’usages, le Web ne se réduit à aucune de ces dimensions en particulier.

Le succès des nouveautés techniques y dépend de l’écosystème de produits existants. L’évolution des produits y est liée à celle des usages. Les usages ne s’y développent qu’à partir des techniques et des produits. Ce réseau d’interaction semble totalement rétif aux synthèses, tout occupé qu’il est à surprendre et à réinventer.

Je crois pourtant que la nature décentralisée du Web offre un moyen de comprendre son orientation. Sans dirigeant, sans régulation externe, sans règlement interne ou plus exactement avec un nombre de règles tel qu’aucune n’est jamais uniformément appliquée, les principes fondateurs du Web sont les seuls capables de véritablement le coordonner. Ce sont eux qui tracent les orientations de l’ensemble, des orientations que l’on peut donc comprendre et prolonger.

C’est cette piste que je voudrais explorer ici. J’espère qu’elle permettra d’éclairer la très courte histoire que le Web a connu jusqu’ici, peut-être plus encore d’en déduire les évolutions à moyen terme. Il ne s’agira certes pas là de prédire un quelconque avenir – il y a une limite au plaisir de se tromper – mais d’essayer de rendre visible des évolutions déjà engagées, des évolutions peut-être suffisament profonde pour influence le Web pendant de nombreuses années.

Les principes fondateurs du Web

Ces principes sont simplement les objectifs initiaux que Tim Berners-Lee et Robert Caillau ont donnés à leur projet. En éliminant le jargon technique, il est possible de les réduire à trois propositions générales et universellement valables:

1- Permettre à chacun d’accéder à tout type de document

2- Permettre à chacun de diffuser ses propres documents

3- Permettre à chacun d’organiser l’ensemble des documents

Ils ont guidé le développement des technologies, des fonctionnalités et des usages du tout premier Web, limité d’abord aux scientifiques du CERN puis aux communautés de chercheurs qui lui étaient liées.

En raison du très petit nombre d’utilisateurs initiaux et de la population très particulière à laquelle ils appartenaient, ce tout premier Web était doté d’une propriété qui n’a jamais été reproduite depuis : chacun de ses utilisateurs avait suffisamment de compétences techniques pour accéder aux documents, pour en créer, et enfin, en programmant en HTML, pour participer à l’organisation de l’ensemble des documents. A la fois lecteur, créateur et organisateur, chaque utilisateur se conformait aux trois principes fondateurs.

Le Web initial, micro-démocratie où chacun disposait de tous les attributs d’un média, assura son propre développement et fixa durablement ses orientations. Son objectif en tant que projet était tracé : permettre à chaque utilisateur de devenir un média complet, c’est-à-dire de lire, de créer et d’organiser l’ensemble des documents qu’il souhaitait.

L’ambition était à la fois immense et claire. Immense car il ne s’agissait ni plus ni moins que de démocratiser l’ensemble de l’activité médiatique. Claire, car l’utopie proposée à tous était en fait déjà réalisée par le petit groupe des pionniers. Elle plaçait ainsi les principes fondateurs au centre de la régulation et du système de développement du Web

Le Web devint un projet Open Source universel et sans leader déclaré, comparable en cela, mais à une autre échelle, à ce qu’est en train de devenir Wikipédia. Ses principes fondateurs assuraient l’intégration des nouveautés dans l’écosystème. Ils renforçaient naturellement celles qui leur correspondaient, freinaient mécaniquement les autres, et orientaient ainsi durablement l’évolution d’ensemble.

40899792_d82b223a25

Les deux premières phases d’expansion

Que l’on regarde maintenant les vingt années écoulées depuis le Web des pionniers, et l’on verra que les principes fondateurs ont non seulement assuré l’unité de d’ensemble du projet, mais encore structuré les étapes de son développement.

Le principe « permettre à chacun d’accéder à tous les documents » établit la première frontière du Web et guida sa première expansion. Pour l’essentiel, cette phase s’étendit de 1994-95 à 2003-2004. Elle correspondit au développement massif d’un Web pyramidal, dans lequel un petit nombre réalisait, organisait et distribuait les contenus que la majorité consommait.

Le portail et le moteur de recherche en étaient les produits clés ; HTML et PHP les technologies principales ; l’accès à l’information l’usage privilégié. Il n’est pas inutile de rappeler que ce modèle recouvre encore la majorité du Web actuel, et continue à se développer au rythme de croissance d’internet.

La deuxième phase d’expansion du Web commença lors des années 2000-2002, sous l’impulsion de projets tels que Blogger, Myspace puis Wikipédia. Rapidement identifié comme un tournant majeur, le « Web 2.0 » correspondit simplement à la popularisation du deuxième principe fondateur : « permettre à chacun de diffuser ses propres documents ».

Des technologies telles qu’AJAX ou RSS offrirent au plus grand nombre des fonctionnalités de création et de diffusion jusqu’alors réservées aux seuls développeurs. Une foule de produits permit à chacun de mettre en ligne des contenus de tous types. Le succès du premier Web et la force d’ensemble du projet permirent enfin aux usages correspondant de s’étendre massivement. Les blogs, les réseaux sociaux, les wikis devinrent les emblèmes de la démocratisation de la parole et de la discussion généralisée.

On peut aujourd’hui estimer que le Web participatif appartient au quotidien de 200 à 300 millions de personnes. Le deuxième principe du Web a franchi à son tour le petit cercle des pionniers pour transformer les usages du grand public. Les technologies, les produits et les modes de fonctionnements sont maintenant en place pour qu’il s’étende progressivement à l’ensemble de la population. Son développement, devenu prévisible, ne requiert plus d’innovation radicale. Il se prolongera naturellement au fil des années.


La troisième frontière

Même rapidement évoquées, les deux premières étapes font nettement apparaitre ce qui constitue aujourd’hui la nouvelle frontière du Web. Au-delà de la foule d’innovations et de nouveautés qui poursuivent des voies déjà tracées, l’une des trois composantes du projet Web, « permettre à chacun d’organiser l’ensemble des documents » est encore loin d’avoir trouvé la voie du grand public.

A-t-on remarqué que le maillon essentiel du tissu technologique du Web, la traduction technique du troisième principe, le langage HTML, est à la fois celui qui a le plus contribué à la diffusion du Web et celui qui s’est le moins éloigné de sa forme technique initiale ? Que la création des liens hypertexte, qui tisse la structure véritable du Web, l’architecture des sites, le point de repère des moteurs de recherches, reste une activité complexe, très éloignée du quotidien, très peu adaptée à la multitude d’usages qui pourraient en découler ?

Après avoir permis à chacun de tout lire et de tout diffuser, le Web doit permettre à chacun de faire ce que ses premiers utilisateurs ont toujours pu faire, ce qui est au cœur de sa radicale originalité : tout organiser. L’écosystème du Web doit progressivement bâtir les technologies, inventer les produits et façonner les usages qui permettront à chacun de manipuler les contenus créés par chacun, de les assembler, de les éditer, de les hiérarchiser, de leur donner du sens. Le Web doit permettre à chacun d’être un média complet.

S’agit-il là d’un souhait ? D’un pari ? D’une hypothèse prospective ? Il s’agit au fond de bien plus que cela. Si des orientations pratiques pour l’avenir d’un système aussi complexe que le Web peuvent être tracées, elles doivent s’appuyer sur les seuls points de coordination possibles entre des acteurs trop divers et trop nombreux pour eux-mêmes se coordonner. Elles doivent s’appuyer sur les seuls éléments partagés : les principes fondateurs du projet.

Dire que la prochaine étape du développement du Web est la démocratisation de la capacité de l’organiser, c’est simplement constater que des trois brins d’ADN initiaux du Web, celui-là seul n’a pas atteint le niveau de développement des autres. Qu’il constitue à proprement parler la nouvelle frontière du projet.

243706129_7d063b73a7_o

Vers le Web total

Mais s’il en est ainsi, dira-t-on peut-être, puisque les développements successifs du premier et du deuxième principe sont maintenant assurés, les techniques, les produits et les usages innovants ne devraient-ils pas aujourd’hui converger vers cette nouvelle frontière supposée ? C’est bien ce qui se dessine sous nos yeux : la troisième phase du Web est déjà lancée.

Les conditions, les besoins et les moyens sont réunis pour que le troisième principe du Web s’étende au-delà du petit groupe des professionnels et des pionniers.

Sur le plan des usages, les réseaux sociaux sont en train de populariser l’édition instantanée de contenus. Prés de 20% des twitts échangés contiennent des URLs. Facebook place l’échange de lien au sommet de sa hiérarchie de fonctionnalités. Chez nombre de passionnés du Web, la lecture des contenus proposés par une communauté remplace celle des aggrégateurs de flux automatisés.

Sur le plan des techniques, systèmes collaboratifs et « Web en temps réel » permettent à chacun de coordonner ses appréciations avec ses différentes communautés, d’organiser au fil de l’eau les éléments passant à sa portée. Le mouvement d’ouverture des données et les technologies sémantiques étendent à la fois la matière première d’organisation du Web et les moyens d’y accéder. Les interfaces riches offrent les moyens de simplifier à l’extrême les opérations d’édition et d’organisation, pour que chaque utilisateur puisse manipuler des données complexes de manière intuitive, ludique et naturelle.

Sur le plan des produits et des fonctionnalités, les géants du Web comme les start-ups les plus avancées se dirigent insensiblement vers le Web organisé par l’utilisateur. Les dernières innovations de Google ? Un système de collaboration généralisé – Wave – un système de discussion public de l’ensemble des contenus du Web – SideWiki – et l’ouverture de son moteur de recherche aux avis explicites et aux notations de ses utilisateurs.

C’est d’ailleurs le modèle hiérarchique et automatique du moteur de recherche que l’organisation du Web par ses utilisateurs s’apprête à remettre en cause. Wikia fut la première tentative notable de développement d’un moteur de recherche à algorithme collaboratif. Mahalo renforce maintenant la dimension humaine de la recherche en orchestrant les questions d’utilisateur à utilisateur. Pearltrees, précisément défini comme un réseau d’intérêt, permet aux membres de sa communauté d’organiser, de connecter et de retrouver naturellement l’ensemble des contenus qui les intéressent. Foursquare, à la différence des systèmes de géolocalisation qui l’ont précédé, ne s’applique pas aux personnes mais aux objets : les joueurs y organisent ensemble les lieux où ils ont l’habitude d’aller.

Les techniques, les produits et les usages issus des premières et deuxièmes phases ne vont pas pour autant s’effacer. La prochaine étape combinera au contraire les trois principes qui ont fait l’histoire et l’originalité du Web : elle fera de chacun à la fois un spectateur, un créateur et un organisateur.

Le Web sera alors pour tous ce qu’il fut pour un petit nombre : un média total, démocratique et démocratisé.

Patrice Lamothe

PDG de Pearltrees

> Article initialement publié sur Cratyle

> Illustrations par Robert Veldwijk, par psd et par Laughing Squid sur Flickr

]]>
http://owni.fr/2010/03/12/la-troisieme-frontiere-du-web/feed/ 26
Internet stimule l’imbécilité http://owni.fr/2010/03/03/internet-stimule-l%e2%80%99imbecilite/ http://owni.fr/2010/03/03/internet-stimule-l%e2%80%99imbecilite/#comments Wed, 03 Mar 2010 11:30:47 +0000 Thierry Crouzet http://owni.fr/?p=9342 3648178346_7703e25f821-450x262

De nos jours, aux États-Unis. Pour avoir participé à un viol collectif, 7 mois de prison1. Pour un braquage à main armée, 18 mois. Pour l’enregistrement vidéo d’un film dans une salle, 24 mois2. Pendant que de plus en plus de gens dénigrent Internet, prétendent qu’il n’a aucune influence politique et sociale, les tribunaux dispensent des peines disproportionnées pour des délits survenus sur Internet. Dans le même temps, les gouvernements votent des lois pour réduire la liberté des internautes. N’est-ce pas paradoxal ?

Si Internet n’avait aucune importance, pourquoi faudrait-il légiférer à son sujet ? Pourquoi faudrait-il pénaliser des activités qui ne mettent en danger la vie de personne ? Pourquoi même faudrait-il en parler ? Mais si on en parle autant, n’est-ce pas que quelque chose couve ? Peut-être pas quelque chose qui a été prévu, mais quelque chose d’encore innommable.

Le viol, le braquage à main armé, le crime… n’effraient pas les structures de pouvoir. Elles les ont intégrés et même abondamment pratiqués au cours de l’histoire. Le piratage d’un film constitue, en revanche, une menace plus subversive. Il s’agit de manipuler l’information, de la transférer par des canaux alternatifs, des canaux qui échappent aux structures de pouvoir. Elles n’ont pas l’intention de se laisser contourner.

Alors Internet n’a aucun impact sociétal ? Par leurs réactions musclées, les gens de pouvoir me paraissent plus lucides que l’intelligentsia techno-sceptique.

Books

Dans son numéro de mars-avril, la revue Books titre en cover Internet contre la démocratie ? Bien sûr pour égratigner Internet. Je vais y revenir. Mais ne trouvez-vous pas étrange que ces revues papier qui peinent à cause d’Internet ne cessent de dénigrer Internet ?

Comment les prendre au sérieux ? Si Internet change un tant soit peu la société, leur modèle ne tient pas. Comment voulez-vous que ces journalistes soient objectifs ? Le rédacteur-en-chef de Books avoue d’ailleurs dans son édito que sa revue est loin de l’équilibre.

J’imagine ce qu’il pense : « Que ce serait bien si Internet pouvait se dégonfler, si on pouvait en revenir à l’ancienne économie du papier. Alors essayons d’entretenir cette idée d’un Internet malsain pour entretenir cette autre idée que les informations de qualité ne se trouvent que sur le papier. » Ce point de vue traverse le dossier de Books.

Vous allez peut-être vous demander si les défenseurs d’Internet sont eux-mêmes objectifs ? Si Internet se développe, nous gagnons par ricochet du prestige. D’un autre côté, nous aussi, surtout ceux qui comme moi vivent de l’écriture, nous ne gagnons rien à ce développement, il ne nous paie pas plus que les journalistes des magazines qui agonisent (et même moins). Si nous nous engageons pour Internet, c’est parce que nous croyons qu’il ouvre de nouvelles possibilités historiques. Nous le faisons, en tout cas je le fais, par militantisme.

Oui, nous sommes des militants, nous ne sommes donc pas objectifs, mais nous ne nous contentons pas du monde que nous observons. Nous voulons le transformer, l’orienter dans la mesure de nos moyens dans une direction qui nous paraît plus agréable (je reste vague au sujet de cet agréable pour laisser la place à une pluralité d’agréables).

La technique du Lone Wolf

Lors de cette brillante conférence, Alain Chouet nous explique qu’Al Qaïda est morte entre 2002 et 2004 :

Ce n’est pas avec un tel dispositif [une cinquantaine de terroristes vivant en conditions précaires dans des lieux reculés et avec peu de moyens de communication] qu’on peut animer à l’échelle planétaire un réseau coordonné de violence politique.

Preuve : aucun des terroristes de Londres, Madrid, Casablanca, Bali, Bombay… n’ont eu de contact avec l’organisation. Chouet nous présente tout d’abord la vision traditionnelle de ce qu’est une structure politique hiérarchisée. Pour agir à l’échelle globale, elle a besoin de liens fonctionnels. Il faut que des gens se parlent et se rencontrent et se commandent les uns les autres. Si ces critères ne sont pas remplis, la structure n’existe pas, Al Qaïda n’existe pas.

Chouet montre toutefois qu’une autre forme d’organisation existe, un réseau de gens isolés, les loups solitaires qui se revendiquent d’Al Qaïda. Maintenant que l’information circule, n’importe quel terroriste peut se dire d’Al Qaïda s’il se sent proche des valeurs d’Al Qaïda. Il n’a pas besoin adhérer au parti pour être membre du parti.

Pour Chouet, on ne combat pas une structure en réseau avec des armées hiérarchisées. On ne fait ainsi que créer des dommages collatéraux qui ont pour effet d’engendrer de nouveaux terroristes. Pour s’attaquer au réseau, il faut une approche en réseau. Exemple : proposer en tout point du territoire une éducation et une vie digne aux hommes et aux femmes qui pourraient devenir membres du réseau.

Tous ceux qui critiquent Internet et même tous ceux qui théorisent à tort et à travers à son sujet devraient écouter et réécouter cette conférence d’Alain Chouet. Trop souvent, ils pensent hiérarchies et oublient que le Web a été construit par des loups solitaires (à commencer par Tim Berners-Lee qui a travaillé en perruque au CERN). Pour créer un site Web, nous n’avons rien à demander à personne.

Inversement, si des gens veulent utiliser internet pour s’attaquer à des structures centralisées, ils ont tout intérêt à adopter une stratégie en réseau (à moins d’être de force égale ou supérieure à leurs ennemis centralisés).

Le cyberoptimisme

En introduction du dossier de Books, Olivier Postel-Vinay veut en finir avec le cyberoptimisme. C’est un peut comme s’il écrivait qu’il fallait en finir avec l’église catholique, l’anarchisme ou le capitalisme. Le cyberoptimisme, c’est l’engagement militant que j’évoquais.

Il ne s’agit pas d’en finir mais de faire que cet optimisme se concrétise et transforme la société, cette société pas toujours belle à voir. Sans optimisme, elle risque de se gâter davantage. Et puis optimisme rime-t-il avec irréalisme ? Je ne vois pas de lien de cause à effet.

Et puis quand on écrit dans un canard qui se prétend sérieux et qu’on fait parler des gens comme Berners-Lee, on les cite. Où le père du Web a-t-il dit qu’Internet pouvait jouer un rôle sur le plan démocratique ?

[Berners-Lee] se persuada très tôt du rôle positif, voire révolutionnaire, que ce nouvel instrument pourrait jouer sur le plan de la démocratie, écrit Postel-Vinay. Avec le Web, Internet offrait désormais à tout un chacun la possibilité de s’exprimer immédiatement dans la sphère publique et d’y laisser une trace visible par tous, dans le monde entier. Bien avant l’apparition de Google et autres Twitter, l’outil affichait un énorme potentiel de rénovation civique.

Que de confusions. Internet tantôt un instrument, tantôt un outil, pourquoi pas un media. Internet est bien plus que tout cela : un écosystème où l’ont peut entre autre, créer des outils. Il ne faut pas confondre le Web et les services Web comme Google ou Twitter. Cette confusion peut avoir des conséquences aussi dramatiques que de prendre Al Qaïda pour une structure hiérarchique et l’affronter comme telle.

Le Web est une structure décentralisée, en grande partie auto-organisée. Google, Twitter, Facebook… sont des entreprises centralisées, structurées sur le même modèle que les gouvernements les plus autocratiques de la planète. Comment imaginer que des citoyens pourraient faire la révolution en recourant à ces services ? Il faut être un cyberdumb comme Clay Shirky pour le croire. Alors doit-on dénigrer Internet à cause d’un seul imbécile avec pignon sur rue outre atlantique ?

La partie politique du dossier de Books ne s’appuie que sur les théories de Shirky critiquées par Evgueni Morozov. C’est surréaliste. Shirky vit dans le monde des capital-risqueurs américains. Vous vous attendez à une quelconque vision politique novatrice venant d’un tel bonhomme ?

Comment quelqu’un nourri à la dictature de l’argent pourrait penser la révolution politique ? Il ne le peut pas. Pour lui la révolution ne peut passer que par les services cotés en bourse. On n’abat pas la dictature avec des outils dictatoriaux sinon pour établir une nouvelle dictature.

Il faut arrêter de prendre Shirky en exemple et de généraliser ses idées à tous les penseurs du Web. Surtout à Berners-Lee qui n’a jamais fait fortune. Qui s’est toujours tenu à l’écart du monde financier.

Dans Weaving the Web, il évoque le rôle de la transparence des données et de leur interfaçage (ce qu’il appelle le Web sémantique). Il a souvent depuis répété que les démocraties se devaient d’être transparentes, ce que permet le Web. Ce n’est pas quelque chose d’acquis et c’est pourquoi il faut des militants. Le Web en lui-même ne suffit pas. Sa simple existence ne change pas le monde. C’est à nous, avec lui, de changer le monde.

La volonté de puissance

En 2006, quand j’écrivais Le cinquième pouvoir, nous en étions encore à une situation ouverte. Les militants comme les activistes politiques utilisaient divers outils sociaux de petite envergure qu’ils détournaient parfois de leur cible initiale. Personne ne savait a priori d’où le vent soufflerait.

Aujourd’hui, tout le monde partout dans le monde utilise les mêmes outils, des monstres centralisés faciles à contrôler (espionner, bloquer, contraindre… il suffit de suivre les péripéties de Google en Chine). De leur côté, les partis politiques, à l’image des démocrates d’Obama durant sa campagne 2008, créent leurs propres outils pour mieux contrôler leurs militants. D’ouverte, nous sommes passés à une situation fermée. La faute en incombe à trois composantes sociales.

  1. Les engagés qui se mettent en situation de faiblesse en utilisant des outils centralisés.
  2. Les forces politiques traditionnelles, au pouvoir ou à sa poursuite, qui elles aussi mettent en place des outils centralisés pour mieux contrôler (et on peut accuser tous ceux qui les conseillent afin de s’enrichir).
  3. Les développeurs de services qui veulent eux aussi contrôler et qui poussent à la centralisation pour maximiser leurs bénéfices.

Ce n’est pas en utilisant Twitter, ou tout autre service du même type, que les citoyens renverseront la dictature ou même provoqueront des changements de fond dans une démocratie.

[…] les six derniers mois [de la révolution iranienne] peuvent être vus comme attestant l’impuissance des mouvements décentralisés face à un état autoritaire impitoyable – même quand ces mouvements sont armés d’outils de protestation moderne, écrit Morozov.

Nouvelle confusion entre bottom-up, ce mouvement qui monte de la base iranienne, et la décentralisation qui elle n’est accessible que par l’usage d’outils eux-mêmes décentralisés. La modernité politique est du côté de ces outils, pas de Twitter ou Facebook qui ne sont que du téléphone many to many à l’âge d’Internet.

Avec ces outils centralisés, on peut au mieux jouer le jeu de la démocratie représentative installée, sans jamais entrer en conflit avec les intérêts de ces forces dominantes. Impossible de les utiliser pour proposer des méthodes réellement alternatives à celles choisies par les gouvernements. Par exemple, si les monnaies alternatives se développent avec des outils centralisés, elles seront contrées dès qu’elles dérangeront.

  1. Un service centralisé est contrôlable car il suffit d’exercer des pressions sur sa hiérarchie.
  2. Un service centralisé est contrôlable car il dépend d’intérêts financiers. Rien de plus confortable que de céder à des tyrans en échange de revenus conséquents.
  3. Un service centralisé n’est presque jamais philanthropique.
  4. Un service centralisé dispose d’une base de données d’utilisateurs. Il ne garantit pas la confidentialité. « Sans le vouloir, les réseaux sociaux ont facilité la collecte de renseignements sur les groupes militants, écrit Morozov. » Sans le vouloir ? Non, leur raison commerciale est de recueillir des renseignements pour vendre des publicités.
  5. Un service centralisé où tout le monde se retrouve c’est comme organiser des réunions secrètes aux yeux de ses ennemis.
  6. Un service centralisé est par principe facile à infiltrer.

Cette liste des faiblesses politiques des outils comme Twitter ou Facebook pourrait s’étendre presque indéfiniment. Il faut être naïf pour songer un instant que la révolution passerait par ces outils. Le capitalisme ne peut engendrer qu’une révolution capitaliste. Une révolution pour rien : le passage d’une structure de pouvoir à une autre. Pour les asservis, pas beaucoup d’espoir à l’horizon.

Dans Le cinquième pouvoir, je parle de la nécessité de nouvelles forces de décentralisation. Aujourd’hui, les partis mais aussi les militants n’utilisent le Web que comme un média un peu plus interactif que la télévision. Pas de quoi encore changer la face du monde. C’est ailleurs que se joue la révolution sociale de fond.

Si les dictatures s’adaptent sans difficulté aux outils centralisés comme le montre Morozov, elles sont tout aussi dans l’embarras que les démocraties pour lutter contre le P2P. Cela montre la voie à un activisme politique indépendant et novateur, quels que soient les régimes politiques. Pour envisager la rénovation avec le Web, il faut adopter la logique du Web, c’est-à-dire la stratégie des loups solitaires.

  1. Usage d’outils décentralisés, notamment du P2P.
  2. Aucun serveur central de contrôle.
  3. Anonymat garanti.
  4. Force de loi auto-organisée pour éviter les dérives pédophiles, mafieuses…
  5. Économie où Internet est si vital qu’il ne peut pas être coupé ou même affaibli sans appauvrir les structures dominantes. Ce dernier point est fondamental.

À ce jour, seul le Web lui-même s’est construit en partie suivant cette approche, ainsi que les réseaux pirates et cyberlibertaires de manière plus systématique.

La démocratie P2P

Mais qu’est-ce qu’on appelle démocratie ? Quelle démocratie Internet pourrait-il favoriser ? Utilisé pour sa capacité à engendrer des monstres centralisés, il ne peut que renforcer le modèle représentatif, quitte à le faire verser vers la dictature.

Internet est potentiellement dangereux (mais qu’est-ce qui n’est pas dangereux entre nos mains ?). Il peut en revanche nous aider à construire un monde plus décentralisé, un monde où les pouvoirs seraient mieux distribués, où la coercition s’affaiblirait, où nous serions moins dépendants des structures d’autorités les plus contestables.

Exemple. Les blogueurs ont potentiellement le pouvoir de décentraliser la production de l’information et sa critique. Je dis bien potentiellement. À ce jour, le phénomène est encore marginal. Mais ne nous précipitons pas. Le Web a vingt ans. Il y a dix ans la plupart des Internautes ne savaient rien d’Internet. Nous ne pouvons pas attendre du nouvel écosystème qu’il bouleverse la donne du jour au lendemain. Ce serait catastrophique et sans doute dangereux. Que les choses avancent lentement n’est pas un mal.

Alors n’oublions pas de rêver. Mettons en place les outils adaptés à nos rêves et utilisons-les dès que nécessaire pour résister. Ne commettons pas l’imprudence de nous croire libres parce que nous disposons d’armes faciles à retourner contre nous.

Avez-vous vu un gouvernement favoriser le développement du P2P ? Certains parmi les plus progressistes le tolèrent, les autres le pénalisent. Le P2P fait peur. Voilà pourquoi un pirate inoffensif écope de 2 ans de prison. Voilà pourquoi aussi il n’y aura de révolution politique qu’à travers une démocratie P2P.

Cessons de nous demander en quoi Internet bouleverse la démocratie représentative. En rien, en tout cas en rien de plus que la télévision en son temps, il exige de nouvelles compétences et favorisent d’autres hommes, au mieux peut-être porteur d’idées plus novatrices, mais rien n’est moins sûr.

Si Internet doit bouleverser la politique, c’est en nous aidant à inventer une nouvelle forme de démocratie, une démocratie moins autoritaire, une démocratie de point à point, une démocratie de proximité globale.

Au fait, j’ai titré ce billet “Internet stimule l’imbécilité” parce que la peur d’Internet fait dire n’importe quoi à des gens qui ne savent pas ce qu’est Internet et qui recoupent des textes écrits par des intellectuels qui eux-mêmes ne connaissent pas Internet (et la régression pourrait être poussé bien loin).


(1) J’ai trouvé ces peines dans un commentaire sur Numerama. J’ai un peu fouillé pour constater que les peines pour viol aux US étaient de durée variable mais parfois de juste 128 jours de prison.

(2) Dans le même article de Numerama.

> Article initialement publié sur Le peuple des connecteurs

]]>
http://owni.fr/2010/03/03/internet-stimule-l%e2%80%99imbecilite/feed/ 3