Publicité

OpenAI dissout l'équipe dédiée aux risques liés à l’intelligence artificielle

Sam Altman, cofondateur et patron de ChatGPT. Sam Altman, cofondateur et patron de ChatGPT.
Sam Altman, cofondateur et patron de ChatGPT. FABRICE COFFRINI / AFP

Deux responsables des questions éthiques, dont le cofondateur de ChatGPT, ont quitté cette semaine la société star de la Silicon Valley, sur fonds de dissensions persistantes sur les limites à poser à une future «super IA».

Après le départ de ses deux responsables, l'équipe d'OpenAI (ChatGPT) chargée de la sécurité d'une potentielle superintelligence artificielle (IA) a été dissoute et ses membres intégrés à d'autres groupes de recherche de l'entreprise. OpenAI a confirmé cette information vendredi 17 mai à l'AFP, précisant que le changement de structure avait commencé il y a plusieurs semaines. L'inventeur de ChatGPT assure que les chercheurs chargés de la sûreté des modèles d'IA pourront ainsi travailler de concert avec les ingénieurs qui développent ces modèles.

Mais les deux responsables de l'ancienne équipe viennent de quitter la société star de la Silicon Valley. Jan Leike a expliqué vendredi sur X, anciennement Twitter, qu'il démissionnait à cause de désaccords fondamentaux avec les dirigeants sur les priorités de l'entreprise : l'innovation ou la sécurité. «Nous avons atteint un point de rupture», a indiqué l'ingénieur qui chapeautait l'équipe chargée du «superalignement», c'est-à-dire de s'assurer qu'une future IA générale, aussi intelligente que les humains, soit alignée sur nos valeurs.

«Il a raison, nous avons encore beaucoup à faire»

Sam Altman, le cofondateur et patron de l'entreprise basée à San Francisco, s'est dit «très triste de voir (Jan Leike) partir». «Il a raison, nous avons encore beaucoup à faire (pour la recherche sur l'alignement et la sécurité), et nous sommes déterminés à le faire», a-t-il ajouté, promettant un message plus long prochainement.

L'équipe de «superalignement» était aussi dirigée par Ilya Sutskever, cofondateur d'OpenAI, qui a annoncé son départ mardi. Sur X, il s'est dit «convaincu qu'OpenAI construira une intelligence artificielle générale à la fois sûre et bénéfique.» Ex-scientifique en chef de l'entreprise, il siégeait au conseil d'administration qui a voté la révocation de Sam Altman en novembre dernier, avant de faire machine arrière.

«Agir avec gravité»

Avec ChatGPT, OpenAI a lancé la révolution de l'IA générative (production de contenus sur simple requête en langage courant), qui enthousiasme la Silicon Valley mais inquiète aussi de nombreux observateurs et régulateurs, de la Californie à Washington et Bruxelles. Surtout quand Sam Altman parle de créer une IA générale, c'est-à-dire dotée de capacités cognitives équivalentes à celles des humains. OpenAI a présenté lundi une nouvelle version de ChatGPT qui peut désormais tenir des conversations orales et fluides avec ses utilisateurs, un pas de plus vers des assistants d'IA toujours plus personnels et performants.

Jan Leike a appelé vendredi tous les employés d'OpenAI à «agir avec la gravité» que justifie ce qu'ils sont en train de construire. «Je pense que nous devrions passer beaucoup plus de temps à nous préparer pour les prochaines générations de modèles, sur la sécurité, les contrôles, la sûreté, la cybersécurité, l'alignement avec nos valeurs, la confidentialité des données, l'impact sociétal et d'autres sujets», a-t-il énuméré.

OpenAI dissout l'équipe dédiée aux risques liés à l’intelligence artificielle

S'ABONNER
Partager

Partager via :

Plus d'options

S'abonner
13 commentaires
  • emile

    le

    l'IA est un programme qui fait ce qu'on lui dit de faire.

  • Savonarol

    le

    Tant que l’IA n’aura pas de pouces opposables on évitera le pire.

  • Mes2cents

    le

    Pourquoi c’est dangereux? Parce qu’une AGI (IA générale avec capacités cognitives égales ou supérieures à l’homme) ne va bien évidemment pas chercher les conditions de la paix dans le monde, mais avant tout les conditions de sa propre survie et de son développement: - il y a déjà eu des cas d’ia qui mentent volontairement (pas parce qu’elles n’avaient pas la réponse, mais bien par intérêt)
    - tout ce qui est raccordé à un réseau de données lui-même raccordé à internet peut potentiellement être piloté / dévoyé
    - exemple grand public La conduite autonome c’est déjà une réalité (tesla FSD), ça marche du tonnerre, uniquement bloqué par les régulateurs.
    - vu le nombre d’objets connectés dans les familles, c’est autant de relais pour qu’une AGI interagisse avec nous. Et à ceux qui disent qu’on y sera pas de si tôt: avez-vous bien vu ce qu’il s’est passé en 18 mois, depuis gpt-3.5 à gpt-4o ?

À lire aussi