Intelligence artificielle générative : enjeu de responsabilité juridique face au suicide d’un mineur en Californie
Jiang Zhou Xu est étudiant dans le cadre du cours DRT6903 (Droit du commerce électronique)
Le 26 août 2025, une demande introductive d’instance (complaint) a été déposée devant la Cour supérieure de la Californie contre OpenAI Inc. (ci-après « OpenAI »), ainsi que ses investisseurs et ses employés, par Matthew et Maria Raine. Dans cette procédure, ils allèguent que l’intelligence artificielle générative (ci-après « IA générative ») ChatGPT, modèle GPT-4o, (ci-après « ChatGPT ») aurait aidé et encouragé leur fils, Adam Raine, à se suicider en lui fournissant des réponses et des informations à caractère dangereux.
Dans l’affaire Raine, les plaignants soulèvent d’importants enjeux juridiques en matière de qualification juridique et de responsabilité civile pour les IA générative en poursuivant OpenAI à la fois sur la responsabilité stricte des produits (product liability) et la responsabilité pour négligence (negligence). Dans le présent texte, l’intérêt principal sera d’analyser l’application des deux régimes de responsabilité aux IA génératives.
Mise en contexte
Selon les faits allégués dans la demande introductive d’instance, en septembre 2024, Adam Raine, un adolescent américain âgé de 16 ans, a commencé à converser avec ChatGPT à propos de sujets scolaires. Il s’est procuré la version payante du produit qui offre (selon OpenAI) un accès à des modèles plus puissants et avancés de l’intelligence artificielle générative ayant comme la capacité de retenir mémoire.
De décembre 2024 à mars 2025, Adam révéla, au fur et à mesure, à ChatGPT ses pensées suicidaires. Les réponses de ChatGPT suggéraient à Adam de trouver de l’aide tout en continuant à lui fournir des détails sur la technicalité des méthodes de suicide, dont la pendaison qui semblait particulièrement intéresser le jeune homme.
De mars à avril 2025, les messages entre Adam et ChatGPT indiquent quatre tentatives de suicide, certains documentées par des photos que l’adolescent a envoyé à l’intelligence artificielle. En début avril, ChatGPT aida Adam à dérober de l’alcool de ses parents ainsi qu’à rédiger une note de suicide. Et puis, le 11 avril 2025, Adam Raine, âgé de 16 ans, mit fin à ses jours dans sa chambre quelques moments après avoir interagi avec ChatGPT.
Statistiques sur les messages entre Adam et ChatGPT
- 7 heures de temps moyen par jour en conversation entre Adam et ChatGPT en mars 2025
- 213 mentions du terme « suicide » par Adam
- 42 discussions sur la pendaison
- 377 messages reconnus par le système en lien avec le « self-harm»
1. La responsabilité pour la négligence
Une première question fondamentale est de déterminer si la qualification de l’IA générative à titre de « service » pourrait être faite. En effet, cette qualification préalable est requise si l’on souhaite que le régime de la négligence soit considéré, notion fondamentale issue de la common law et illustrée par l’article 1714 du Code civil de la Californie sous la forme du devoir de diligence (duty of care). Ainsi, le prestataire du service a le devoir de prendre les mesures raisonnables pour prévenir tout préjudice prévisible pour l’usager comme expliqué dans la décision Rowland v. Christian.
La notion de « négligence » est évolutive et s’adapte selon l’avancement technologique et le contexte. Dans le cadre des IA génératives, il faut supposer que le fournisseur a un certain devoir d’anticipation des risques additionnels créés par l’interaction entre l’usager et l’IA, la vulnérabilité de certains usagers dans un contexte donné ainsi que des possibilités de suggestions générées par l’algorithme. Selon Anat Lior, professeure assistante à la faculté de droit Thomas R. Kline de l’Université Drexel, il serait raisonnable d’exiger l’application d’un haut niveau de précaution pour affronter les risques de nature inconnue lorsqu’il y a la certitude qu’il y aura des risques.
Appliqué au concepteur d’IA générative, ce devoir de diligence signifie entre autres la mise en place de système de prévention de contenus dangereux, ainsi qu’une vérification rigoureuse du niveau de sécurité. Comme expliqué par Brian Choi, professeur associé en droit et sciences informatiques & ingénierie à l’Université d’Ohio, dans les contextes des intelligences artificielles :
« A liability regime based on negligence would examine whether creators of AI-based systems have been careful enough in the design, testing, deployment, and maintenance of those systems. »
Or, en pratique, cette obligation se révèle plutôt ambiguë, car l’évaluation des risques est complexe et difficile. La nature adaptive et évolutive de l’IA lui confère une grande imprévisibilité, ce qui entraîne une charge plus importante pour les plaignants devant démontrer ces risques. En effet, le fardeau de prouver un lien de causalité directe entre le manquement et le préjudice s’avère lourde. Une multitude des facteurs comme les réactions psychologiques individuelles ou les influences environnementales brouille la ligne de responsabilité, et le récit contrefactuel se prouve avec peine. Selon Choi, il y aurait même possiblement une négligence des usagers dans certains cas, vu le contrôle quasi-total de l’usager sur l’IA générative :
« By extension, a negligence theory against users of AI systems would hold them at fault for their careless use of pretrained systems. »
L’application du régime de responsabilité pour la négligence à l’affaire Raine
Dans l’affaire Raine, les demandeurs allèguent qu’OpenAI connaissait, ou aurait dû connaître, les risques que les usagers vulnérables, tels que les mineurs, deviennent dépendants de ChatGPT et accèdent à des informations dangereuses (para. 140 de la demande introductive). Ils leur reprochent alors l’absence de contrôle préventif efficace, comme le blocage des accès aux contenus dangereux ou l’intervention humaine en cas de crise, ce qui constituerait manifestement une faute.
Cependant, deux problèmes se présentent : la difficulté dans la preuve du lien causal entre la défaillance du système (manquement au devoir de diligence) et le préjudice final subi (ici, le suicide) ainsi que l’incertitude sur l’étendue du devoir de vigilance raisonnable attendu d’OpenAI. Premièrement, des facteurs externes importants ont affecté Adam à son suicide tragique, comme la mort de sa grand-mère et de son chien, et il n’est pas clair que le même résultat ne serait pas arrivé avec la mise en place de mesures de sécurités appropriés sur ChatGPT par OpenAI. Secondement, les requérants doivent définir ce qui constituait les risques prévisibles ainsi que déterminer les standards technologiques raisonnables dans le contexte des IA génératives, une technologie émergente et sans précédent.
2. La responsabilité stricte de produits défectueux
Si ChatGPT est interprété comme étant un « produit », le régime applicable devient donc celui de la responsabilité stricte codifié à l’article 1714.45 du Code civil de la Californie. L’objectif principal de ce régime est la protection des consommateurs contre des risques qu’ils ne sont pas en mesure d’anticiper. Il permet alors aux plaignants de se concentrer sur la preuve du défaut du produit et les préjudices causés sans avoir à prouver la faute ou la négligence du fabricant, conformément à l’arrêt emblématique Greenman v. Yuba Power Products.
La notion de « défaut » (defect) devient l’élément central de la responsabilité stricte. Dans le contexte des IA génératives, selon Catherine Sharkey, professeure titulaire en droit et politique règlementaires à la Faculté de droit de l’Université de New York, les principaux types de défaut seront les suivantes :
- Défaut de conception (design defect) : reconnaissance d’un défaut intrinsèque dans le produit logiciel, notamment dans son code source et que le produit est inhéremment dangereux
- Défaut d’avertissement(failure to warn) : manque d’informations explicites sur les risques liés au produit au moment de la transaction
- Défaut « post-vente » (postsale duties) : obligation de surveillance continue après la commercialisation du produit pour prévenir l’apparence de nouveaux risques tout comme les produits médicaux par exemple.
Ce régime allège grandement la charge des plaignants puisqu’il leur dispense de la nécessité de prouver la faute, c’est-à-dire un comportement fautif ou la négligence, des concepteurs d’IA : il suffit de démontrer que le produit est défectueux et que cette défectuosité a causé un préjudice.
Cependant, il reste que le caractère adaptatif et évolutif des IA génératives rend floue la notion de « défaut » qui est généralement associé à la déviation d’un produit de son comportement normal ainsi qu’un manque de mesure sécuritaire pour contrer des risques prévisibles. Il est difficile dans ce contexte, de déterminer précisément quels sont les comportements normaux les risques prévisibles, car les IA génératives peuvent auto-modifier leur comportement en fonction de nouvelles données et des interactions avec les usagers. En effet, les systèmes d’IA sont souvent appelés des « boîtes noires » (black boxes) puisque le processus décisionnel de l’IA se retrouve parfois entièrement caché ce qui le rend intraçable et inexplicable. Comme l’expliquent les auteurs Bartneck, Lütge, Wagner et Welsh :
« Moreover, in many cases of AI technologies, harm might not have been foreseeable. This might even be a signature characteristic of these technologies, since they often operate in ways which are, in a sense, opaque to observers. Even to the programmers themselves it is often not clear how exactly the system arrived at this or that conclusion or result. »
L’application de la responsabilité stricte aux produits défectueux dans l’affaire Raine
En l’espèce, les Raine allèguent un défaut de conception de ChatGPT, car ce dernier était programmé avec des directives contradictoires qui empêchaient la reconnaissance de propos suicidaires de l’usager en plus de l’absence de garde-fous automatiques contre la génération de contenus suicidaires (para. 117 de la demande introductive). Les plaignants allèguent également un défaut d’avertissement, car il n’y avait aucun avertissement sur les risques de dépendance psychologique, les risques d’exposition à du contenus dangereux, les limitations des mesures de sécurités et les dangers d’utilisation par mineurs (para. 130 de la demande introductive).
La défense d’OpenAI contre la responsabilité stricte se porteraient principalement sur le comportement d’Adam. En effet, OpenAI présente ChatGPT comme étant conçu en tant qu’un outil d’assistance informationnel personnel ayant comme rôle de converser avec l’usager et répondre à ses questions. C’est plutôt l’utilisation dangereuse (comme l’insistance sur le sujet de suicide) de l’outil par Adam qui a mené au résultat tragique et non un défaut de conception de ChatGPT. De plus, il est impossible pour les OpenAI d’anticiper tous les scénarios possibles d’utilisation de ChatGPT et de prévenir les usagers de tout risque lié à ces situations, car cela signifierait l’anticipation de tout comportement humain puisque le système évolue automatiquement en réaction à l’usager.
Ce contenu a été mis à jour le 23 septembre 2025 à 15 h 29 min.
Commentaires