Las teorías distópicas sobre cómo el avance de la IA podría representar una amenaza existencial para la raza humana, están circulando por muchos sitios de internet. Algunos incluso hablan de su potencial para crear armas biológicas.
Los más alucinados dicen que estos modelos podrían llegar a mentir a sus desarrolladores como si tuvieran una mente propia.
Pero estas opiniones extremas son infundadas, y no tienen nada que ver con la tecnología de inteligencia artificial.
Estos modelos no son la máquina de inteligencia artificial asesina de la película de Stanley Kubrick 2001: Una odisea del espacio.

La villanía de HAL y sus tendencias homicidas, es pura ciencia ficción.
Cuando un modelo de IA parece ignorar las instrucciones, es por la inconsistencia de las mismas, no porque la máquina cobre vida.
Por lo tanto, la IA no destruirá la civilización humana a menos que algún grupo de idiotas decidan permitirle ejecutar infraestructura crítica de forma autónoma sin supervisión humana.
Básicamente, lo que hacen estos programas informáticos es ingerir cantidades masivas de datos, digerirlos, y luego regurgitarlos para dar respuestas basadas en las entradas de los usuarios.
No tienen pensamientos propios. De hecho ni siquiera entienden el lenguaje humano.
En este sentido, antes de que puedan procesar información, primero deben convertir las palabras en números.
Las limitaciones de los LLM han sido bien documentadas por Gary Marcus y muchos otros investigadores.
Por lo tanto, estos modelos de lenguaje no causarán el apocalipsis. Antes de que la IA existiese los humanos ya nos apañábamos bastante bien.
Los infames campos de exterminio nazis, el bombardeo de Dresde y el lanzamiento de bombas atómicas en Hiroshima y Nagasaki son prueba de ello.
Pero son bastante buenos en otra cosa: recopilar información extremadamente matizada sobre las personas que interactúan con ellos.
Recopilan información de fuentes como redes sociales, dispositivos móviles, sensores de IoT y transacciones en línea, a menudo sin el conocimiento del usuario, pero con su consentimiento explícito.
Y algunos de estos datos pueden ser personalmente identificables (identificar, contactar o localizar a una persona en concreto).
Este aumento en la recopilación de datos mejora la capacidad de la IA para analizar comportamientos y preferencias.
Es por eso que los LLM son una mina de oro para las empresas y un coto de caza atractivo para los delincuentes.
ChatGPT, Copilot, Claude, Grok y compañía se pueden utilizar para cualquier cosa que queramos: crear listas de la compra, ponernos a dieta, organizar nuestro calendario, redactar correos electrónicos o escribir código.
Pueden llegar a imitar a un asistente personal, un maestro, un confidente o cualquier otra cosa que les pidamos.
Millones de personas de todo el mundo ya están compartiendo sus ideas, pensamientos e incluso sus secretos más profundos e inconfesables con los chatbots.
Por supuesto, las empresas que los perpetran animan a hacerlo.
No es que pretendan dirigir nuestras vidas o manipular nuestros pensamientos como afirman algunos iluminados: quieren saber nuestros hábitos y preferencias. También como y donde gastamos nuestro dinero.
Al hurgar en varias políticas de privacidad, descubrimos que la mayoría de los chatbots de IA pueden recopilar cosas como archivos subidos a la plataforma, imágenes, audio y vídeo, los contactos de los usuarios que también utilizan el mismo servicio, y mucho más...
Este es un extracto de la política de privacidad de OpenAI que se supone que son más conscientes de la privacidad que otros.
Los chatbots de IA utilizan la información personal de las interacciones del usuario para volver a entrenar la IA y hacerla más inteligente. Esto significa que cualquier información que ingrese en un chatbot, incluida la información personal, puede aparecer en otro lugar.
¿Qué significa exactamente en otro lugar? No lo dicen.
La Unión Europea cuenta con el Reglamento General de Protección de Datos (RGPD), que otorga protección general.
Pero poca cosa puede hacer esta ley si aun conociendo los términos y condiciones de alguna de estas herramientas, les facilitamos hasta el ADN.
En otro contexto, es algo parecido a regalarle la cartera a un delincuente y después llamar a la policía diciendo que nos la ha robado.
Por lo tanto, mantengámonos informados, permanezcamos vigilantes y seamos cautelosos con lo que compartimos con estas herramientas.



