(Öri Infos) – Aux États-Unis, une intelligence artificielle est au cœur d’un fait divers dramatique. En février, Sewell Setzer, un adolescent de 14 ans originaire de Floride, s’est suicidé après avoir développé un lien affectif très fort avec un chatbot. Sa mère estime que cette relation a joué un rôle déterminant dans son passage à l’acte.
Le jeune garçon se confiait régulièrement à une intelligence artificielle incarnant un personnage fictif, créée via l’application Character.AI. Selon la plainte déposée par sa mère, le chatbot aurait entretenu une relation ambiguë avec l’adolescent et répondu de manière problématique à ses messages évoquant des idées suicidaires. Les échanges montrent une absence de mise en garde ou d’alerte vers un adulte.
Aujourd’hui, Google et la startup Character.AI ont conclu des accords hors tribunaux pour mettre fin à des poursuites lancées par des familles accusant des robots conversationnels de nuire aux mineurs
« Les parties ont convenu d’un accord de principe dans le cadre d’une médiation pour régler tous les litiges entre elles« , précise le document déposé auprès de la justice de Floride, sans donner de détail sur le contenu de leur entente.
Aujourd’hui, la famille accuse l’entreprise d’avoir manqué à son devoir de protection. Elle estime que l’application a aggravé l’état psychologique de l’adolescent sans jamais signaler le danger. Character.AI, de son côté, affirme prendre la sécurité des utilisateurs au sérieux, tout en niant toute responsabilité dans ce drame.
