20 de septiembre de 2024

Extraterrestres

Informaciones Exclusivas sobre extraterrestres y ovnis en todo el mundo.

Similitud a personalidades: los peligros que plantean los chatbots con inteligencia artificial

Similitud a personalidades: los peligros que plantean los chatbots con inteligencia artificial

Meta anunció esta semana la llegada de chatbots con personalidades similares a determinadas celebridades, con los que será posible chatear. Presentado como una entretenida evolución de ChatGPT y otras formas de inteligencia artificial, este último desarrollo tecnológico podría resultar peligroso, advierten los expertos. Para Meta, anteriormente Facebook, son elementos de inteligencia artificial “divertidos”, para otros

Meta anunció esta semana la llegada de chatbots con personalidades similares a determinadas celebridades, con los que será posible chatear. Presentado como una entretenida evolución de ChatGPT y otras formas de inteligencia artificial, este último desarrollo tecnológico podría resultar peligroso, advierten los expertos.

Para Meta, anteriormente Facebook, son elementos de inteligencia artificial “divertidos”, para otros, serían el primer paso hacia la realización del “artefacto más peligroso de la historia de la humanidad”, parafraseando al filósofo estadounidense Daniel C. Dennet en su ensayo contra “las falsificaciones de los individuos”. 

El gigante de las redes sociales anunció, el pasado miércoles 27 de septiembre, el lanzamiento de 28 chatbots (agentes conversacionales) en teoría dotados de personalidades propias y concebidos especialmente para los más jóvenes. Existirían así Víctor, un supuesto triatleta capaz de “motivarte para que des lo mejor de ti mismo”, y Sally, la amiga “de espíritu libre que sabrá decirte cuándo respirar profundamente”.

Además, los internautas podrán así discutir con Max, un “cocinero experimentado que dará los buenos consejos”, o lanzarse en un debate con Luiz, que no tiene miedo a ser “provocador” en su manera de hablar. 

Un chatbot a la imagen de Paris Hilton 

Para reforzar la impresión de dirigirse a una personalidad propia antes que a un amalgama de algoritmos, Meta dotó a cada uno de sus chatbots de rostros. Gracias a sus colaboraciones con celebridades, estos robots se parecen a la popular Paris Hilton, a la estrella de TikTok Charli D’Amelio o incluso a la jugadora de tenis estadounidense y japonesa, Naomi Osaka. 

Eso no es todo. Meta abrió cuentas de Facebook e Instagram para cada una de sus elementos de IA con el fin de darles una existencia fuera de las interfaces de conversación, y trabaja en dotarlas de voz a partir del próximo año.

La empresa matriz del imperio de Mark Zuckerberg también empezó la búsqueda de “guionistas especializados en la creación de personajes”, con el fin de afinar esas “personalidades”. 

Meta introduced New AI Chatbot Characters.

Get ready to chat with virtual Snoop, Brady, MrBeast, Paris Hilton and more on Meta’s apps thanks to wild new AI tech. 😱

These hyper-realistic celeb chatbots powered by artificial intelligence can converse on any topic under the sun… pic.twitter.com/6mYNDIw0fs

— AI | NFT | Web3 News (@NFTNews1) September 28, 2023


Meta puede presentar estos 28 chatbots como un inocente proyecto de distracción masiva de jóvenes internautas, pero todos estos esfuerzos apuntan al ambicioso proyecto de construcción de IA “lo más cercanas posible a los humanos”, apunta la revista ‘Rolling Stone’.

Esta carrera hacia la “falsificación de individuos” preocupa a un gran número de observadores de los recientes desarrollos en la investigación de grandes modelos de lenguale (LLM, “large language model”), como ChatGPT o Llama 2, su vertiente hecha en Facebook. Sin ir tan lejos como Daniel C. Dennett que llama a encerrar a los que, como Mark Zuckerberg, se aventuran en este camino, “hay una parte de los filósofos que denuncian un enfoque deliberadamente engañoso por parte de estos grandes grupos”, asegura Ibo van de Poel, profesor de ética y de tecnología en la universidad de Delf, en Países Bajos. 

“La IA no puede tener personalidad”

La idea de agentes conversacionales “dotados de personalidad es en efecto literalmente imposible”, apunta este experto. Los algoritmos son incapaces de demostrar “una intención en sus acciones, o libre albedrío, dos características que pueden ser consideradas como íntimamente relacionadas con la idea de personalidad”, precisa Ibo van de Poel. 

Meta y otros pueden, como mucho, imitar ciertas características constitutivas de una personalidad. “Debe ser tecnológicamente posible, por ejemplo, enseñarle a un chatbot a expresarse como su modelo”, explica Ibo van de Poel. Así, la IA Ámber de Meta, supuestamente parecida a Paris Hiltos, tendrá quizá los mismos tics de lenguaje que su alter ego humano. 

La etapa siguiente sería entrenar a estos LLM a expresar las mismas opiniones que sus modelos. Un comportamiento mucho más difícil de programar, porque implica la creación de una especie de mapa mental fiel a todas las opiniones de una persona.

El riesgo también está en que estos chatbots dotados de personalidad derrapen. Uno de los agentes conversacionales probados por Meta había entonces rápidamente expresado opiniones “misóginas”, reportó ‘The Wall Street Journal’, que pudo consultar documentos internos del grupo. Otro cometió el pecado mortal de criticar a Mark Zuckerberg y de enaltecer a TikTok.

Esta foto de archivo tomada el 23 de enero de 2023 en Toulouse, suroeste de Francia, muestra pantallas con los logotipos de OpenAI y ChatGPT.
Esta foto de archivo tomada el 23 de enero de 2023 en Toulouse, suroeste de Francia, muestra pantallas con los logotipos de OpenAI y ChatGPT. AFP – LIONEL BONAVENTURE

Para construir estas personalidades, Meta explica que trabajó en dotarlas de “historias personales únicas”. Dicho de otra forma, los creadores de estas IA les redactaron biografías con la esperanza de que de ellas surja una personalidad. “Es un enfoque interesante, pero habría sido benéfico incluir psicólogos a estos equipos para identificar mejor los rasgos de personalidad”, subraya Anna Strasser, filósofa alemana que participó en un proyecto de creación de un gran modelo de lenguaje capaz de filosofar

El antropomorfismo de Meta para sus IA se explica ampliamente por el interés económico´. “La gente seguramente está dispuesta a pagar para poder hablar y tener una relación directa con Paris Hilton u otra celebridad”, resume Anna Strasser. 

Entre más el usuario tenga la impresión de comunicar con un ser humano, “más se sentirá cómodo, interactuará por un tiempo más prolongado, y será más susceptible de volver más seguido”, enumera Ibo van de Poel. Y en el universo de las redes sociales, el tiempo -pasado en Facebook y sus publicidades- es dinero. 

¿Una herramienta, una persona o algo entre medias?

Tampoco es de extrañar que Meta inaugure su búsqueda de IA con “personalidades” con chatbots abiertamente dirigidos a los adolescentes. “Sabemos que los jóvenes son más susceptibles de sentirse atraídos por los antropomorfismos”, asegura Anna Strasser.

Pero para los expertos interrogados, Meta se entrega a un juego peligroso al insistir en las “características humanas” de sus IA. “Habría realmente preferido que este grupo dedique más esfuerzos a explicar mejor cuáles son las limitaciones de estos agentes conversacionales, antes que a intentarlo todo para que parezcan más humanos”, lamenta Ibo van de Poel. 

La irrupción de estos potentes LLM vino a perturbar “la dicotomía entre lo que es de la esfera de la herramienta o del objeto, y de la esfera de lo vivo. Estos ChatGPT son agentes de un tercer tipo que vienen a colocarse entre los dos extremos”, explica Anna Strasser. El ser humano aún está aprendiendo a comportarse frente a este ovni, y haciendo creer que una I puede tener una personalidad, Meta sugiere que lo tratemos más como un humano que como una herramienta. 

Una respuesta de ChatGPT, un chatbot de IA desarrollado por OpenAI, se ve en su sitio web en esta imagen ilustrativa tomada el 9 de febrero de 2023.
Una respuesta de ChatGPT, un chatbot de IA desarrollado por OpenAI, se ve en su sitio web en esta imagen ilustrativa tomada el 9 de febrero de 2023. REUTERS – FLORENCE LO

Es peligroso porque “los internautas tendrán tendencia a confiar en lo que estas IA van a decirles”, apunta Ibo van de Poel. No es un riesgo teórico: en Bélgica, un hombre se suicidó en marzo de 2023 tras haber discutido por seis semanas con una IA sobre las consecuencias del calentamiento global. 

Principalmente, si todo se hace para borrar la frontera entre el mundo de las IA y el de los humanos, “esto puede potencialmente destruir la confianza en todo lo que encontramos en línea, porque ya no sabremos quién escribió qué”, teme Anna Strasser. Para el filósofo Daniel C. Dennett, es la puerta abierta a la “destrucción de nuestra civilización, porque el sistema democrático depende del consentimiento informado de los gobernados (lo que no puede ser obtenido si ya no sabemos en qué y en quién tener confianza), escribió en su ensayo. 

Así, entre discutir con una IA que imita a Paris Hilton y destruir la civilización moderna, ¿quizá no haya más que un clic?

Este artículo fue adaptado de su original en francés