
L’intelligence artificielle ne comprend pas ce qui l’entoure, elle réagit simplement à ce qu’elle voit. Alors des chercheurs suédois ont récemment tenté de leur apprendre des bases de physique à la portée d'un enfant âgé d'un an.
Pas vu (pas pris). Depuis le premier prototype de 2014, la voiture autonome progresse à pas de géant. À la fois quant à la qualité des capteurs utilisés et à celle des logiciels prédictifs qui bénéficient d’une expérience de millions d’heures de conduite. Au quotidien, sa démonstration la plus connue reste l’autopilot de Tesla. Pourtant, ces intelligences artificielles négligent des éléments qui sont si basiques qu’un écolier de primaire les a déjà acquis. Une logique qu’on appelle « le bon sens ».
Is a self-driving car smarter than a seven-month-old? https://t.co/rJCc33fIJh
— Hacker News (@newsycombinator) September 5, 2021
No comprendo. Le meilleur exemple de ce manque, comme l’explique le magazine The Economist, c’est le concept de « permanence », c’est-à-dire le fait qu’un objet qui était là il y a une seconde y est très certainement encore même si vous ne le voyez plus. C’est parce que vous avez intégré ce phénomène tout petit que vous savez où est l’objet que votre maman cache derrière son dos, ou que vous ne vous mettez pas à courir pour traverser une rue dès que vous ne voyez plus le feu rouge qui vous l’interdisait parce qu’une camionnette passe devant et le dissimule. Une voiture autonome ne le comprend pas, elle.
Un bébé assimile cette différence vers ses 6 mois. À chaque fois qu’il voit la queue d’un chien, il sait qu’à l’autre bout se trouve le toutou. L’intelligence artificielle l’apprend aussi, à force d’en voir sauf qu’elle ne remet pas en cause son diagnostique si elle ne voit pas le chien. Selon elle, c’est “probable” donc valable. C’est comme ça qu’en croisant une ligne rectiligne et blanche, l’ordinateur estime que c’est une voie infranchissable et refusera de la franchir. Un problème que les conducteurs de Tesla connaissent (hélas trop) bien :
There's this weird bug where the autopilot tries to veer the car off the road and drive at high speed straight towards the current location of Grimes. https://t.co/O9x0jjteQM
— Dr Fran van Plannaram Ph.D. (@dismalplaces) September 24, 2021
S.C.I.E.N.C.E. C’est pourquoi, en Suède des chercheurs de l’Université d’Orebro ont développé un programme pour ajouter des règles de physique à ces algorithmes. L’ordinateur pourra alors passer ce qu’il a déduit de son environnement au filtre de lois fondamentales : la permanence, la gravité, la position absolue et relative (un objet qui est devant un autre a peu de chance d’être désormais derrière lui, même s’il en a l’apparence ou qu’on en voit le reflet)…
Bon, pour le moment, les tests réalisés par le Dr Bhatt et ses développeurs sont un peu décevants : leur surcouche logicielle n’a permis d’améliorer que de 5 % les tests d’accidents. Mais il a apporté un point majeur : l’IA peut expliquer pourquoi elle a adopté tel comportement plutôt que de continuer son pilotage automatique. Un point qui permettra d’améliorer encore les algorithmes et… d’aider les assureurs à savoir qui était en faute. Notre bébé ne comprend pas encore pourquoi il a fait une bêtise mais il sait déjà dénoncer.