Esto viene después de una demanda que fue presentada, alegando que un chatbot ‘alentó a un adolescente a quitarse la vida.’
La madre de Florida, Megan García, está tomando medidas legales contra Character.ai, afirmando que su hijo de 14 años se quitó la vida como resultado de una interacción con un chatbot que adoptaba la identidad del personaje de Game of Thrones, Daenerys Targaryen.
Dale Allen, el fundador de The Safety-Verse, una iniciativa que busca hacer que la información y los recursos sobre seguridad sean más accesibles, dijo que era importante reconocer que la inteligencia artificial es una tecnología en rápido desarrollo que aún no ha sido completamente probada.
Él dijo: “La inteligencia artificial sigue siendo una tecnología emergente que aún no ha pasado por los extensos procesos de aprendizaje y refinamientos de seguridad que hemos logrado en salud y seguridad a lo largo de los años al aprender de accidentes anteriores.
“Debido a que la IA es algo ‘infantil’ en su desarrollo, necesita estar liderada por humanos con controles parentales en su lugar, especialmente para los sistemas a los que acceden o utilizan en el hogar, para proteger a nuestros hijos y garantizar la seguridad a medida que la tecnología madura en los próximos años.
“Necesitamos seguir siendo los guardianes de estas tecnologías, asegurándonos de que el juicio humano y la supervisión guíen su uso, especialmente cuando se trata de proteger a los niños, los ancianos y a nosotros mismos en nuestros hogares.
“Con respecto a Character.AI específicamente, necesitamos asegurarnos de darle a la IA la misma atención que daríamos a plataformas como YouTube, Google, Netflix y cualquier otro sistema que requiera ajustes para niños que aún no son adultos.”