L'un des plus grands
triomphes d'IA au cours des dernières années a été quand l'ordinateur Alpha Go
de Google, en 2011 a battu le champion du monde dans l'un des jeux les plus
complexes au monde, l'ancien jeu
oriental Go. Mais, si les deux
adversaires avaient utilisé la même quantité d’énergie, l’ordinateur n’aurait
pas pu gagner. Alors que le cerveau du champion consommait environ 20 W, Alpha
Go nécessitait environ 5 000 W.
Plus les tâches sont
complexes, plus il faut d'énergie pour former les systèmes d'IA. Par exemple,
des chercheurs de l'Université américaine du Massachusetts ont récemment
calculé l'effet sur le climat de divers systèmes d'IA entrainés à comprendre le
langage humain. Le résultat montre une émission équivalant de 280 tonnes CO2 par langue, ce qui correspond
aux émissions annuelles de 24 français.
Dans une autre étude des chercheurs de
l'Université du Michigan ont montré que les ordinateurs et l'électronique
nécessaires pour les voitures autonomes augmentent la besoin d’énergie jusqu'à
20%.
La technologie IA est généralement
très exigeante en énergie. Pour les entrainer à faire la différence entre de 2
objets banals, par exemple une tasse de café et un pot de chambre, il faut
parfois des milliers d’images et plusieurs semaines.
Les chercheurs d’IA se
tournent maintenant vers des chercheurs du cerveau avec l’espoir à trouver des
nouvelles architectures et méthodes de calcules plus efficaces inspirés par le
cerveau humain.
Le cerveau humain a une
capacité exceptionnelle à interpréter l'environnement, même avec relativement
peu d'informations. Une simple image nous suffit le plus suivant pour
identifier un objet ou une personne. En revanche les modèles d'IA utilisent des
méthodes statistiques et mathématiques de calcul lourdes pour reconnaître des
objets et doivent être formés à l'aide de milliers d'exemples. Malgré cet
entrainement ils sont incapables à identifier des nouveaux objets. Une voiture
autonome qui a appris à différencier entre un piéton et un cycliste ne
comprendra pas automatiquement ce qu'elle voit quand un monocycle arrive.
L'intérêt pour le cerveau
s'est considérablement accru chez les géants de l'informatique, qui désormais
parmi leurs collaborateurs aussi comptent des spécialistes du cerveau. Des
nouveaux types de processeurs spécialement conçu pour l'IA avec le but à imiter
le fonctionnement du cerveau, ont été lancés ces dernières années. Ils
permettent des « bruit » dans les calculs.
Un gros voleur d'énergie
dans les ordinateurs actuels est que les calculs sont faits dans le processeur et
que la communication avec les mémoires par conséquence doit être intense. C’est
pourquoi un piste est de fournir les mémoires avec un peu de capacité de
calcules. Le concept s'appelle «”in-memory-computing» et il est une première
étape pour s’approcher la manière dont le cerveau traite et mémorise des
informations.
La prochaine étape est à
rassembler des millions de ces dispositifs de mémoire sur une puce. IBM a
développé un prototype avec 3 millions d'unités de ces mémoires sur un seul puce.
Une équipe de recherche
germano-britannique a présenté une variante optique du même type que la puce d’IBM. Au lieu d'utiliser de l'électricité, les
informations sont échangés avec de la lumière. Un autre nouveau type
d’ordinateur est l’ordinateur quantique, qui repose sur des principes
complètement différents des ordinateurs actuels et qui peut résoudre des tâches
avec une vitesse énorme. Il existe aussi de la recherche pour développer des ordinateurs
chimiques où les calculs sont effectués avec aide de molécules.