Por disposición de las grandes empresas tecnológicas y gobiernos de los países avanzados del mundo, la inteligencia artificial (IA) se ha convertido en la gran esperanza de la humanidad en los años por venir. Si antes (en los noventas) era necesario saber Word y Excel como requisito para obtener un trabajo relativamente remunerado, hoy es clave el saber programación de la inteligencia artificial –los famosos “prompt”- para estar en condiciones de competir en el mercado laboral.
Cualquier producto tecnológico (celulares, cámaras, computadoras, relojes, etc.) ya incluye en sus ganchos promocionales el estar configurado con inteligencia artificial para hacer más fácil la vida de los humanos, y menos engorrosa aún sus preocupaciones del día a día. Los reflejos de las simetrías (donde las modas, usos y costumbres, se imponen a grandes segmentos poblacionales en los países del orbe) son parte de las conductas “espejo” que todos debemos incorporar para ser reconocidos y aceptados socialmente, y empiezan a tener profundas raíces y asideros en la IA.
Las grandes preocupaciones mundanas (cuitas convertidas en aflicciones, anhelos, y deseos fervientes) que llevan a nuestras vidas por los senderos de la avanzada tecnológica y cultural del mundo, hacen que ese reflejo o espejo llegue a ámbitos pioneros por primera vez. Tal es el caso del derecho y el sistema judicial en relación con una demanda millonaria que se ha itido en Estados Unidos (en Tallahassee, Florida) por una juez federal.
Según señala el diario La Jornada del pasado viernes 23 de mayo, la madre de un chico de 14 años, Megan García, de Florida, alega “que su hijo de 14 años, Sewell Setzer III, fue víctima de un “chatbot” de Character.AI que lo arrastró a lo que ella dijo “era una relación emocional y sexualmente abusiva que lo arrastró al suicidio”.
La demanda señala, según La Jornada, “que los últimos meses de su vida, Setzer se aisló cada vez más de la realidad mientras participaba en conversaciones sexualizadas con el bot, que había sido modelado con base en un personaje ficticio del programa de televisión Game of Thrones. En sus momentos finales, el bot le dijo a Setzer que lo amaba y le instó a venir a casa ‘conmigo’ lo antes posible, según capturas de pantalla del dialogo. Momentos después de recibir el mensaje, Setzer se pegó un balazo, según los documentos jurídicos”.
Por supuesto, dice el diario mexicano en su nota, que la empresa de software Character Technologies -la empresa detrás de Character.AI- rechazó las acusaciones de homicidio involuntario y alegó que la primera enmienda de la Constitución de los Estados Unidos protegía a los “chatbots” creados por la misma. Recordemos que la primera enmienda hace referencia a la prohibición de coartar la libertad de expresión o de imprenta mediante leyes del Congreso, y que igualmente se ha extendido esta prohibición a órdenes ejecutivas o judiciales.
Entramos en el ámbito de la polémica jurídica ya que los expertos consideran que con ello la Inteligencia Artificial pone a prueba la Constitución norteamericana y su sistema judicial.
La magistrada federal encontró que “Character Technologies” puede reivindicar los derechos de sus s [¿humanos?] garantizados en dicha Primera enmienda, “quienes tienen el derecho a recibir el discurso de los chatbots”. Pero yo agrego que esto no quiere decir que los chatbots o robots de IA tengan los mismos derechos que los seres humanos, ¿o sí?
Por su parte una académica estudiosa de estos temas, Lyrissa Barnetty Lidsky, profesora de derecho en la Universidad de Florida señaló que el caso es una advertencia clara sobre “los peligros de confiar nuestra salud emocional y mental a las empresas de IA”.
Los padres tienen que estar atentos sobre los riesgos que las redes sociales y los dispositivos de IA representan para los menores de edad en formación del carácter, con un conocimiento y comprensión del mundo incipiente, donde los impactos no siempre son inofensivos y pueden llevar a estos graves desenlaces.
Así las cosas, ahora resulta que los riesgos se van haciendo presentes a medida que estas tecnologías tienen un uso masivo. Tal y como los distintos tipos de fraudes cibernéticos y “hackeos” se van haciendo una parte (indeseable) de nuestras vidas. A cuidarnos y a cuidar de nuestros seres queridos. Desarrollemos la salud mental y la inteligencia emocional para no caer en estas devastadoras consecuencias, aunque las empresas nos digan que “les importa mucho la seguridad de sus s”.