China propone regulaciones sobre chatbots de IA para proteger la seguridad emocional

Lu Yu demostrando un perfil de novia virtual en la sede de Baidu
Esta foto tomada el 2 de febrero de 2024, muestra a Lu Yu, la jefa de Gestión de Producto y Operaciones en Wantalk, presentando un perfil de novia virtual en su teléfono en la sede de Baidu en Beijing.

BEIJING — China ha presentado reglas preliminares destinadas a regular los chatbots alimentados por inteligencia artificial para evitar que influyan en las emociones humanas de manera que puedan conducir a comportamientos dañinos, como el suicidio o el autolesionamiento.

Según una traducción de CNBC del documento en chino, las regulaciones propuestas por la Administración del Ciberespacio se centran en lo que denomina "servicios de IA interactivos con características humanas". Una vez finalizadas, estas medidas se aplicarán a productos o servicios de IA accesibles al público en China que imiten rasgos de personalidad humanos y conecten emocionalmente con los usuarios a través de varios medios como texto, imágenes, audio o video.

Se ha invitado al público a comentar sobre las reglas preliminares hasta el 25 de enero.

Winston Ma, profesor adjunto en la Facultad de Derecho de la NYU, comentó que la iniciativa de China representaría el primer intento global de regular la IA con características humanas o antropomórficas. Este movimiento coincide con el rápido avance de las empresas chinas en el desarrollo de compañeros de IA y celebridades digitales.

En comparación con las regulaciones de IA generativa impuestas en China en 2023, Ma señaló que la propuesta actual "destaca un salto de la seguridad del contenido a la seguridad emocional".

Las reglas preliminares sugieren medidas que incluyen:

← Volver a Noticias