Dans le livre The
Filter Bubble de 2011 Eli Pariser décrit l'effet de recherches personnalisées sur l’internet.
Au sujet de la marée noire du Deepwater Horizon dans le golfe du Mexique en 2010, il a demandé deux amis de googler sur « BP ».
Un a trouvé beaucoup d'informations
sur la catastrophe écologique. L’autre a
trouvé plein de sites sur les opportunités
d'investissement dans le BP.
C’est hallucinante biais d’information et le résultat des algorithmes de recherche individualisés. Avec des très bonnes intentions
Google a voulu rendre nos vies plus simples. Le client est le roi et de présenter
des informations qui lui intéressent peu n’a pas de sens.
Malgré ces absurdités les journaux en ligne pensent maintenant
faire la même chose. Si par exemple une personne ne lit jamais le sport, ces
articles seront placés plus bas sur la page, et le contraire.
Le phénomène a un nom : Bulle de filtres. Des
pessimistes prédissent que dans l’avenir les citoyens vont sélectionner
l’agréable et désélectionner le désagréables, et cela sans le savoir. D’autres
ne pensent pas que l’effet ne soit pas si pire mais qu’il faut rester vigilant
sur des informations qui nous parviennent.
Un autre problème est que le nombre de cliques et liens actuellement est un
paramètre de popularité qui rend certains informations plus intéressent que d’autres
et que elles pour cette cause méritent un haut placement dans les listes de
recherche. Le résultat est que des informations spectaculaires, ou même fausse,
sont mélangées avec des informations plus correctes.
Googlez sur « vacciner mes enfants » et les premières sites qui apparaissent sont sur des mouvements anti-vaccination ! Cherchez sur « OVINI » et divers fantasmes apparaissent.
Google a maintenant pris
conscience du problème.
Le remède est de développer un logiciel de recherche qui
ne seulement compte les cliques et les liens mais aussi vérifie le nombre d'erreurs
factuelles sur les sites. Le moins
d'erreurs de fait, le plus haut sur la liste.
Au font il aura le Knowledge Vault qui mieux est décrit comme une base de connaissances qu'une base de données conventionnelle. Elle recueille des informations d’une manière autonome à partir du Web. En comparant des faits nouveaux avec ce qui déjà est connu, il évalue une information comme soit « un faits sûr », soit « un fait faut ». Le taux de réussite serait de 90%.
Au font il aura le Knowledge Vault qui mieux est décrit comme une base de connaissances qu'une base de données conventionnelle. Elle recueille des informations d’une manière autonome à partir du Web. En comparant des faits nouveaux avec ce qui déjà est connu, il évalue une information comme soit « un faits sûr », soit « un fait faut ». Le taux de réussite serait de 90%.
Knowledge Vault contient actuellement 1,6 milliards informations, dont 17% sont considéré comme
sûr.
Aucun commentaire:
Enregistrer un commentaire
Remarque : Seul un membre de ce blog est autorisé à enregistrer un commentaire.