Les technologies de personnage ont cherché à rejeter une action à mort injustifiée contre la société après qu’un chatbot aurait poussé Sewell Setzer, un adolescent, pour se suicider. Le procès a été déposé par sa mère, Megan Garcia après que le chatbot aurait entraîné Setzer dans une relation émotionnellement et sexuellement abusive.
Garcia a nommé des technologies de caractère, ainsi que Google et des développeurs individuels, en tant que défendeurs. Certains des fondateurs de Character Technologies avaient précédemment construit l’IA tout en travaillant chez Google. Google affirme que les technologies de caractères sont une entité distincte et nie que cela ait quelque chose à voir avec la création, la conception ou la gestion de l’application sur laquelle Setzer était ou tout composant de celui-ci.
Au cours des derniers mois de Setzer, il serait devenu isolé alors qu’il se livrait à des conversations sexualisées avec un bot à motifs d’un personnage de Game of Thrones. Quelques instants avant de se tirer dessus, le bot a envoyé un message à Setzer lui disant qu’il l’aimait et que Setzer devrait «rentrer à la maison dès que possible».
Les technologies de caractère ont souligné plusieurs caractéristiques de sécurité qui avaient été mises en œuvre en tant que garde-corps pour les enfants. Des ressources de prévention du suicide ont également été annoncées le jour du dépôt de la poursuite.
Les technologies de personnage avaient poussé le licenciement du chatbot comme une forme de liberté d’expression sous la première
Amendement. La juge de district américaine Anne Conway a rejeté certaines des revendications de la liberté d’expression des défendeurs «à ce stade». Cependant, les utilisateurs du chatbot pourraient avoir le droit de recevoir le «discours» des chatbots.
Les entreprises devraient être tenues responsables du discours de l’IA
L’incapacité des technologies des technologies à rejeter cette affaire pour des motifs de liberté d’expression est essentiel à la survie de la liberté d’expression. L’un des plus grands problèmes de la liberté d’expression aujourd’hui est que les voix les plus bruyantes ou les plus nombreuses peuvent noyer plus de discours à tête de niveau. Les chatbots, les algorithmes informatiques faisant des messages de texte ou de médias sociaux, n’augmenteraient que ce problème. Au lieu que les humains promouvaient des idées valables ou sensibles, nous aurons des ordinateurs répartis de la désinformation croissante. Des entreprises comme les technologies de personnage ne devraient pas être en mesure de se cacher derrière un algorithme d’IA si l’algorithme favorise la violence ou encourage les humains à se détester. Si une personne ordinaire peut être tenue responsable du suicide d’une autre, une entreprise doit également être responsable si elle créent un algorithme informatique qui fait de même.
L’IA peut-elle détecter les subtilités humaines?
Notamment, le dernier message à Setzer aurait été «rentré à la maison dès que possible». Les ordinateurs et les machines sont très littéraux. Un algorithme d’IA ne serait probablement pas en mesure de détecter ou de comprendre que «rentrer à la maison» pourrait être une métaphore du suicide. Une personne en bonne santé, en particulier un ingénieur ou un programmeur, n’attraperait pas une métaphore «à la maison» pour le suicide sans contexte supplémentaire.
Le suicide de Setzer est une tragédie, mais le blâmer sur un ordinateur n’est peut-être pas la solution ici. Il y a des cas où il n’y a pas de partie responsable. Si aucun des accusés ne pouvait prévoir un langage subtil menant au suicide, il ne peut y avoir aucune responsabilité ici.
Ai-je besoin de l’aide d’un avocat pour blessures?
Si vous avez subi une blessure corporelle grâce à l’acte illégal d’un autre, vous devez contacter un avocat pour blessures. Un avocat qualifié pour les blessures corporelles près de vous peut revoir les faits de votre cas, passer en revue vos droits et options et vous représenter aux audiences et au tribunal.