L'IA responsable pénalement, l'idée n'est plus un fantasme
Les créateurs d'une intelligence artificielle (IA) peuvent-ils être condamnés pour le rôle qu'a joué leur IA dans un crime ou un suicide? Le procureur de Floride a ouvert la voie à l'hypothèse, jugée réaliste mais complexe par les juristes.
"Si cette chose de l'autre côté de l'écran (ChatGPT) était une personne, nous l'inculperions pour homicide", a lancé, il y a quelques jours, le procureur James Uthmeier, au sujet de la célèbre interface d'IA générative.
Selon des éléments recueillis par ses services, Phoenix Ikner, étudiant de l'université de Florida State, a échangé avec ChatGPT avant de tirer sur plusieurs personnes sur le campus, faisant deux morts et six blessés, en avril 2025.
Le suspect a discuté avec le robot conversationnel de la meilleure arme et des munitions appropriées pour son attaque, ainsi que du moment et des endroits propices pour toucher le plus de personnes possible.
Sur cette base, le procureur a ouvert une enquête criminelle et dit ne pas exclure d'inculper OpenAI, géniteur de ChatGPT, ou des employés de la start-up.
Les poursuites pénales contre une entreprise et ses salariés sont prévues par le droit américain mais restent relativement rares.
Fin avril, le laboratoire Purdue Pharma a été condamné pénalement à 8,3 milliards de dollars d'amendes et pénalités pour avoir favorisé la crise des opiacés.
Par le passé, Volkswagen a aussi été jugé coupable dans le scandale de manipulation des émissions polluantes, Pfizer en lien avec sa promotion de l'anti-inflammatoire Bextra ou Exxon pour la marée noire de l'Exxon Valdez en Alaska.
Pour les juristes interrogés par l'AFP, les deux principales infractions envisageables sont la négligence ou la faute délibérée (recklessness), cette dernière impliquant le choix d'ignorer des risques connus ou une obligation de sécurité.
Ces infractions sont souvent considérées comme des délits et non des crimes, avec des peines plus légères en cas de condamnation.
"Comme c'est un terrain nouveau, pour convaincre il faudrait vraisemblablement des documents internes mentionnant des risques" liés à la commission d'un homicide "qui n'auraient pas été assez pris au sérieux", avance Matthew Tokson, professeur de droit à l'université d'Utah.
"Il faudrait probablement que ça ait l'air accablant" pour qu'un jury ou un juge adhère à la thèse, prévient-il.
Concernant les tirs de Phoenix Ikner, OpenAI considère que "ChatGPT n'est pas responsable de ce crime affreux".
La start-up assure "travailler constamment au renforcement de ses garde-fous pour détecter les velléités dangereuses" et "répondre de manière adaptée en cas de risques pour la sécurité" des personnes.
En droit pénal, "la charge de la preuve est plus lourde", rappelle Brandon Garrett, professeur de droit à l'université de Duke, le doute éventuel profitant théoriquement à la personne poursuivie.
D'autant qu'un employé de la tech ne pourrait être impliqué qu'indirectement dans l'enchaînement des faits présumés.
"C'est un produit (ChatGPT) qui aurait encouragé le crime" et non une intervention humaine, insiste Matthew Tokson. "C'est ce qui fait que c'est si intéressant."
- Civil ou pénal -
Une procédure civile "serait plus prometteuse", estime Matthew Tokson, les plaignants pouvant s'appuyer sur la notion moins restrictive de responsabilité civile.
Plusieurs procédures civiles ont déjà été lancées contre des plateformes d'IA aux Etats-Unis, beaucoup pour des cas de suicide, mais aucune n'a encore aboutie à une condamnation.
En décembre, les ayant-droits de Suzanne Adams ont accusé, devant la justice californienne, OpenAI d'avoir contribué, via ChatGPT, au meurtre de cette retraitée du Connecticut par son fils.
Les dernières versions de ChatGPT sorties depuis "ont plus de protections" contre les dérives, reconnaît Matthew Bergman, avocat dans plusieurs dossiers, "mais elle ne sont pas adéquates pour autant".
Une condamnation au pénal "aurait un gros impact sur le plan de l'image", estime Matthew Tokson, même si la peine était modérée. "Cela pourrait effrayer les investisseurs."
Mais "les poursuites pénales ne remplacent pas la régulation", défend Brandon Garrett, alors que Congrès et gouvernement Trump restent, pour l'instant, en retrait.
Il prône des règles claires, pour que les acteurs de l'IA "sachent ce qu'ils doivent faire", plutôt que de s'en remettre à "des sanctions occasionnelles".
D.Ancira--LGdM