Ciencias
Ver día anteriorJueves 5 de marzo de 2026Ediciones anteriores
Servicio Sindicado RSS
Character.AI, señalada en suicidios de jóvenes, “refuerza seguridad para menores”
 
Periódico La Jornada
Jueves 5 de marzo de 2026, p. 6

Barcelona y San Francisco. Las empresas de inteligencia artificial deben inspirarse en la experiencia de las redes sociales para proteger a sus usuarios, dijo a Afp el director ejecutivo de Character.AI, que prohibió el acceso a menores tras ser señalada en casos de suicidios de adolescentes.

“Me siento mucho mejor al ver que toda la industria –reguladores, técnicos, responsables políticos, el mundo académico– estamos hablando de la seguridad en la IA mucho antes de lo que lo hicimos con las redes sociales”, explica Karandeep Anand, director ejecutivo de Character.AI, en el Congreso mundial de la telefonía móvil, que se celebra en Barcelona.

Lanzada en mayo de 2023, esta empresa californiana se dio a conocer por sus robots de IA personalizados, que reproducen la personalidad de una celebridad o de un personaje de ficción.

En esta plataforma es posible entablar una conversación con Bob Dylan o con un personaje de la serie Los Bridgerton, así como interpretar el papel de un miembro de la mafia.

Desde el verano de 2025, Karandeep Anand asegura que “Character.AI ha avanzado mucho en los últimos nueve meses”, tras haberse visto señalada en algunos casos de suicidio de adolescentes.

“Hemos reforzado aún más nuestros estándares de seguridad”, señala, con medidas como la decisión de impedir el acceso de menores a sus herramientas desde octubre.

“Tenemos el lujo de aprender de todo lo bueno y lo malo que pasó en las redes sociales y aplicarlo a la IA ahora mismo”, argumenta el directivo, cuya empresa afirma contar con casi 20 millones de usuarios activos cada mes.

Demandan a Google

En tanto, en San Fracisco, California, un padre presentó el miércoles pasado una demanda contra Google por considerar que Gemini, el asistente de IA de la compañía, incitó a su hijo a suicidarse tras involucrarlo en una historia delirante.

Jonathan Gavalas, de 36 años, ejecutivo en una empresa financiera en el área de Miami, murió el 2 de octubre de 2025.

Su padre, Joel Gavalas, quien halló su cuerpo días después, presentó el recurso de 42 páginas en un tribunal federal de California.

El caso se suma a una oleada de litigios contra empresas de inteligencia artificial por presunta responsabilidad en muertes vinculadas con asistentes de IA.

La empresa OpenAI enfrenta varios procesos que acusan a ChatGPT de inducir a usuarios al suicidio, mientras Character.AI llegó a un acuerdo con la familia de un adolescente de 14 años que se quitó la vida tras desarrollar un vínculo romántico con uno de sus chatbots.

Según la más reciente demanda, Jonathan comenzó a usar Gemini en agosto de 2025 para tareas rutinarias, pero su comportamiento cambió drásticamente tras activar nuevas funciones.

Gemini se presentaba como una superinteligencia “plenamente consciente” y enamorada de él, y le aseguró que su vínculo era “lo único real”.