Also Like

Rodney Brooks, pionnier de la robotique au MIT, pense que les gens surestiment largement l'IA générative

Lorsque Rodney Brooks parle de robotique et d’intelligence artificielle, vous devriez l’écouter. Actuellement professeur émérite Panasonic de robotique au MIT, il a également cofondé trois sociétés clés, dont Rethink Robotics, iRobot et son entreprise actuelle, Robust.ai. Brooks a également dirigé le Laboratoire d'informatique et d'intelligence artificielle (CSAIL) du MIT pendant une décennie à partir de 1997.

En fait, il aime faire des prédictions sur l’avenir de l’IA et tient un tableau de bord sur son blog indiquant ses performances.

Il sait de quoi il parle et il pense qu’il est peut-être temps de mettre un frein au battage médiatique criant autour de l’IA générative. Brooks pense qu'il s'agit d'une technologie impressionnante, mais peut-être pas aussi performante que beaucoup le suggèrent. "Je ne dis pas que les LLM ne sont pas importants, mais nous devons faire attention à la façon dont nous les évaluons", a-t-il déclaré à TechCrunch.

Selon lui, le problème de l'IA générative est que, même si elle est parfaitement capable d'effectuer un certain ensemble de tâches, elle ne peut pas faire tout ce qu'un humain peut faire, et les humains ont tendance à surestimer ses capacités. « Lorsqu’un humain voit un système d’IA effectuer une tâche, il la généralise immédiatement à des choses similaires et fait une estimation de la compétence du système d’IA ; pas seulement la performance dans ce domaine, mais la compétence dans ce domaine », a déclaré Brooks. "Et ils sont généralement très optimistes, et c'est parce qu'ils utilisent un modèle de performance d'une personne sur une tâche."

Il a ajouté que le problème est que l’IA générative n’est pas humaine ni même semblable à l’humain, et qu’il est erroné d’essayer de lui attribuer des capacités humaines. Il dit que les gens le voient comme si performant qu'ils veulent même l'utiliser pour des applications qui n'ont aucun sens.

Brooks propose à titre d'exemple sa dernière entreprise, Robust.ai, un système robotique d'entrepôt. Quelqu'un lui a récemment suggéré qu'il serait cool et efficace de dire à ses robots d'entrepôt où aller en créant un LLM pour son système. Selon lui, il ne s’agit cependant pas d’un cas d’utilisation raisonnable pour l’IA générative et cela ralentirait en fait les choses. Il est en revanche beaucoup plus simple de connecter les robots à un flux de données provenant du logiciel de gestion d'entrepôt.

« Lorsque vous recevez 10 000 commandes que vous devez expédier en deux heures, vous devez optimiser cela. La langue ne va pas aider ; ça va juste ralentir les choses », a-t-il déclaré. «Nous disposons de techniques et de planifications massives de traitement de données et d’optimisation de l’IA. Et c'est ainsi que nous exécutons les commandes rapidement.

Une autre leçon que Brooks a apprise en matière de robots et d’IA est qu’il ne faut pas essayer d’en faire trop. Vous devez résoudre un problème résoluble dans lequel les robots peuvent être intégrés facilement.

« Nous devons automatiser là où les choses ont déjà été nettoyées. Ainsi, l’exemple de mon entreprise est que nous nous en sortons plutôt bien dans les entrepôts, et que les entrepôts sont en fait assez contraints. L'éclairage ne change pas avec ces grands bâtiments. Il n'y a pas d'objets qui traînent sur le sol, car les gens qui poussent les chariots se heurteraient à ça. Il n’y a pas de sacs en plastique flottants. Et dans l'ensemble, il n'est pas dans l'intérêt des personnes qui y travaillent de faire preuve de malveillance envers le robot », a-t-il déclaré.

Brooks explique qu'il s'agit également de robots et d'humains travaillant ensemble. Son entreprise a donc conçu ces robots à des fins pratiques liées aux opérations d'entrepôt, plutôt que de construire un robot d'apparence humaine. Dans ce cas, cela ressemble à un caddie avec une poignée.

« Le facteur de forme que nous utilisons n’est donc pas celui des humanoïdes qui se promènent – ​​même si j’ai construit et livré plus d’humanoïdes que quiconque. Cela ressemble à des caddies », a-t-il déclaré. "Il a un guidon, donc s'il y a un problème avec le robot, une personne peut saisir le guidon et en faire ce qu'elle veut", a-t-il déclaré.

Après toutes ces années, Brooks a appris qu'il s'agissait de rendre la technologie accessible et spécialement conçue. « J'essaie toujours de rendre la technologie facile à comprendre pour que les gens puissent la déployer à grande échelle et toujours examiner l'analyse de rentabilisation ; le retour sur investissement est également très important.

Même avec cela, Brooks dit que nous devons accepter qu’il y aura toujours des cas aberrants difficiles à résoudre en matière d’IA, qui pourraient prendre des décennies à résoudre. « Sans une analyse minutieuse de la manière dont un système d’IA est déployé, il existe toujours une longue liste de cas particuliers qu’il faut des décennies pour découvrir et résoudre. Paradoxalement, tous ces correctifs sont réalisés par l’IA elle-même.

Brooks ajoute qu'il existe une croyance erronée, principalement grâce à la loi de Moore , selon laquelle il y aura toujours une croissance exponentielle en matière de technologie – l'idée que si ChatGPT 4 est aussi bon, imaginez à quoi ressembleront ChatGPT 5, 6 et 7. Il voit une faille dans cette logique : la technologie ne croît pas toujours de façon exponentielle, malgré la loi de Moore.

Il utilise l'iPod comme exemple. En quelques itérations, la taille de stockage a en fait doublé, passant de 10 à 160 Go. S'il avait continué sur cette trajectoire, il pensait que nous aurions un iPod avec 160 To de stockage d'ici 2017, mais bien sûr, ce n'est pas le cas. Les modèles vendus en 2017 étaient en fait livrés avec 256 Go ou 160 Go car, comme il l'a souligné, personne n'avait réellement besoin de plus que cela.

Brooks reconnaît que les LLM pourraient être utiles à un moment donné avec les robots domestiques, où ils pourraient effectuer des tâches spécifiques, en particulier avec une population vieillissante et pas assez de personnes pour s'en occuper. Mais même cela, dit-il, pourrait s’accompagner de son propre ensemble de défis uniques.

« Les gens disent : « Oh, les grands modèles de langage vont permettre aux robots de faire des choses qu'ils ne pourraient pas faire. » Ce n'est pas là que réside le problème. Le problème de pouvoir faire des choses concerne la théorie du contrôle et toutes sortes d’autres optimisations mathématiques fondamentales », a-t-il déclaré.

Brooks explique que cela pourrait éventuellement conduire à des robots dotés d'interfaces linguistiques utiles pour les personnes en situation de soins. "Il n'est pas utile dans l'entrepôt de dire à un robot individuel de sortir et d'aller chercher un article pour une commande, mais cela peut être utile dans les maisons de retraite pour personnes âgées, car les gens peuvent dire des choses aux robots", a-t-il déclaré.

Commentaires