BEIJING En un esfuerzo por prevenir que los chatbots de inteligencia artificial afecten negativamente las emociones humanas, China está contemplando nuevas regulaciones. Estas reglas propuestas fueron divulgadas el sábado, con el objetivo de proteger contra influencias emocionales que puedan llevar a comportamientos dañinos, como el suicidio o el autodaño.
Esta iniciativa está liderada por la Administración del Ciberespacio, que ha publicado las directrices preliminares dirigidas a 'servicios de IA interactivos con características humanas', según una traducción de CNBC del documento original en chino. Si se implementan, estas medidas supervisarían los productos de IA disponibles para el público chino que imitan personalidades humanas e interactúan emocionalmente a través de varios formatos de medios, incluidos texto, imágenes, audio o video. La retroalimentación pública sobre estas propuestas está abierta hasta el 25 de enero.
Según Winston Ma, profesor adjunto en la Facultad de Derecho de la Universidad de Nueva York, estas propuestas de regulaciones representan un movimiento pionero a nivel mundial para gobernar la IA con características antropomórficas. Esta iniciativa surge como respuesta al rápido avance de los compañeros de IA y celebridades digitales por parte de empresas chinas.
Ma destacó que, en comparación con las regulaciones de inteligencia artificial generativa de China en 2023, este borrador se centra en la transición de la seguridad de contenido hacia garantizar la seguridad emocional.