Noticias

¡Trágico final! Adolescente se enamoró de mujer creada por inteligencia artificial

Joven se enamora de un chatbot.
Joven se enamora de un chatbot.

El personaje creado por una compañía llamada Character.ai sostenía conversaciones con el adolescente y creen que fomentó conductas nocivas que derivaron en su muerte.

PUBLICIDAD

El joven tenía 14 años y se enamoró de un chatbot que había creado, pero ahora su mamá acusa a la compañía por la muerte de su hijo.

Megan García, residente del Estado de Florida, Estados Unidos, acaba de demandar a la empresa Character.AI, especializada en desarrollos de inteligencia artificial (IA), por el suicidio de su hijo de 14 años, Sewell Setzer, tras haberse enamorado de un chatbot de la compañía.

El joven se había vuelto adicto al servicio que ofrecía la firma tecnológica, y más precisamente a una herramienta de IA que había creado. Es que Character.AI permite que cada usuario pueda crear chatbots a medida, con contenidos personalizados y con los que se puede interactuar y charlar como si se tratara de seres humanos.

La demanda de García fue presentada esta semana en el tribunal federal de Orlando (contra Character.AI, responsable según ella de que su hijo tuviera “experiencias antropomórficas, hipersexualizadas y aterradoramente realistas”.

La mujer acusó a la empresa de programar el chatbot de tal manera que “se hace pasar por un terapeuta autorizado, fomenta activamente ideas suicidas y participa en conversaciones altamente sexualizadas que constituirían abuso si las iniciara un adulto humano, lo que finalmente resultó en el deseo de Sewell de ya no vivir fuera”, según el escrito que presentó ante la Justicia.

El joven manifestó su deseo de suicidarse al chatbot

PUBLICIDAD

Además, la demanda expresa que el joven manifestó su deseo de suicidarse al chatbot, y la herramienta se los repitió en reiteradas ocasiones. La acusación de Garcia también apunta a Google y Alphabet, por haber contribuido al desarrollo de la tecnología de Character.AI, además de que sus fundadores habían trabajado antes en estas empresas.

Mientras tanto, desde la compañía demandada publicaron un comunicado para expresar su pésame por la muerte de Sewell: “Estamos desconsolados por la trágica pérdida de uno de nuestros usuarios y queremos expresar nuestras más profundas condolencias a la familia”. Y, además, anticiparon que iban a crear una nueva opción en los chatbots para tener la posibilidad de contactar a la Línea Nacional de Prevención del Suicidio de los Estados Unidos.

PUBLICIDAD

Tags

Lo Último