Pages

jeudi 31 octobre 2019

Une IA qui plus ressemble le cerveau pour économiser de l'énergie


L'un des plus grands triomphes d'IA au cours des dernières années a été quand l'ordinateur Alpha Go de Google, en 2011 a battu le champion du monde dans l'un des jeux les plus complexes au monde, l'ancien jeu oriental Go. Mais, si les deux adversaires avaient utilisé la même quantité d’énergie, l’ordinateur n’aurait pas pu gagner. Alors que le cerveau du champion consommait environ 20 W, Alpha Go nécessitait environ 5 000 W.

Plus les tâches sont complexes, plus il faut d'énergie pour former les systèmes d'IA. Par exemple, des chercheurs de l'Université américaine du Massachusetts ont récemment calculé l'effet sur le climat de divers systèmes d'IA entrainés à comprendre le langage humain. Le résultat montre une émission équivalant de 280 tonnes CO2 par langue, ce qui correspond aux émissions annuelles de 24 français.

Dans une autre étude des chercheurs de l'Université du Michigan ont montré que les ordinateurs et l'électronique nécessaires pour les voitures autonomes augmentent la besoin d’énergie jusqu'à 20%.

La technologie IA est généralement très exigeante en énergie. Pour les entrainer à faire la différence entre de 2 objets banals, par exemple une tasse de café et un pot de chambre, il faut parfois des milliers d’images et plusieurs semaines.

Les chercheurs d’IA se tournent maintenant vers des chercheurs du cerveau avec l’espoir à trouver des nouvelles architectures et méthodes de calcules plus efficaces inspirés par le cerveau humain.

Le cerveau humain a une capacité exceptionnelle à interpréter l'environnement, même avec relativement peu d'informations. Une simple image nous suffit le plus suivant pour identifier un objet ou une personne. En revanche les modèles d'IA utilisent des méthodes statistiques et mathématiques de calcul lourdes pour reconnaître des objets et doivent être formés à l'aide de milliers d'exemples. Malgré cet entrainement ils sont incapables à identifier des nouveaux objets. Une voiture autonome qui a appris à différencier entre un piéton et un cycliste ne comprendra pas automatiquement ce qu'elle voit quand un monocycle arrive.

L'intérêt pour le cerveau s'est considérablement accru chez les géants de l'informatique, qui désormais parmi leurs collaborateurs aussi comptent des spécialistes du cerveau. Des nouveaux types de processeurs spécialement conçu pour l'IA avec le but à imiter le fonctionnement du cerveau, ont été lancés ces dernières années. Ils permettent des « bruit » dans les calculs.

Un gros voleur d'énergie dans les ordinateurs actuels est que les calculs sont faits dans le processeur et que la communication avec les mémoires par conséquence doit être intense. C’est pourquoi un piste est de fournir les mémoires avec un peu de capacité de calcules. Le concept s'appelle «”in-memory-computing» et il est une première étape pour s’approcher la manière dont le cerveau traite et mémorise des informations.

La prochaine étape est à rassembler des millions de ces dispositifs de mémoire sur une puce. IBM a développé un prototype avec 3 millions d'unités de ces mémoires sur un seul puce.

Une équipe de recherche germano-britannique a présenté une variante optique du même type que la puce d’IBM. Au lieu d'utiliser de l'électricité, les informations sont échangés avec de la lumière. Un autre nouveau type d’ordinateur est l’ordinateur quantique, qui repose sur des principes complètement différents des ordinateurs actuels et qui peut résoudre des tâches avec une vitesse énorme. Il existe aussi de la recherche pour développer des ordinateurs chimiques où les calculs sont effectués avec aide de molécules.

Aucun commentaire:

Enregistrer un commentaire

Remarque : Seul un membre de ce blog est autorisé à enregistrer un commentaire.