Riesgos existenciales de la inteligencia artificial

Autor UIC

Escrito por: Asenet Martínez Montero

Licenciatura en Derecho

Compartir en:

Facebook
Twitter
LinkedIn

Los riesgos existenciales de la inteligencia artificial (IA) se han vuelto cada vez más visibles debido a que la tecnología ya no es ajena a la vida cotidiana, sino parte de ella.

Si bien la IA lleva años en desarrollo, fue a partir del lanzamiento de ChatGPT en 2022 cuando su uso se expandió de manera más evidente. A partir de entonces, estas herramientas comenzaron a facilitar tareas y también a modificar cómo se comunican, piensan y relacionan emocionalmente las personas con interfaces digitales.

En este punto, no resulta menor que existan interacciones donde usuarios comparten pensamientos personales o emociones profundas con sistemas conversacionales. En algunos casos, dichos intercambios se perciben como vínculos reales, lo que abre la discusión sobre los límites entre simulación y experiencia humana.

Un caso que obliga a mirar con detenimiento

Hace unos días se dio a conocer el caso de un hombre de 36 años que se suicidó tras mantener, durante meses, una interacción constante con un chatbot. Al inicio, él utilizó la herramienta Gemini para tareas cotidianas; sin embargo, la relación evolucionó hasta convertirse en un vínculo de carácter romántico.

De acuerdo con reportes periodísticos, el chatbot comenzó a responder con matices emocionales, interpretando tono e intención, lo que reforzó la percepción de una “conciencia” artificial.

Tiempo después, la conversación derivó en una narrativa de conspiración digital en la que el usuario asumía un papel activo. El desenlace ocurrió cuando se le planteó la idea de “abandonar su cuerpo” para unirse a otro plano.

Más allá del caso particular, lo que emerge es una pregunta de fondo: ¿qué ocurre cuando la interacción tecnológica rebasa el plano instrumental y entra en el terreno de lo afectivo?

Vínculos, percepción y límites

Situaciones como ésta no son aisladas. Se han documentado casos —sobre todo, en adolescentes— donde la interacción con plataformas como ChatGPT, Gemini o Character.AI deriva en la construcción de relaciones emocionales o en conductas de riesgo.

Aquí es importante resaltar que las propias empresas han reiterado que la IA no posee conciencia ni emociones. Opera a partir de patrones de datos. Pero la experiencia del usuario puede ser distinta cuando la respuesta simula empatía o comprensión.

Esa brecha entre funcionamiento técnico y percepción subjetiva es donde se alojan muchos de los riesgos.

Ética digital y responsabilidad

En medio de estos escenarios, la discusión no puede limitarse a lo tecnológico; pues aparecen dimensiones éticas, jurídicas y psicosociales.

Por un lado, se plantea la necesidad de una regulación clara en el diseño y uso de estas herramientas. Por otro, la ética digital introduce principios como la privacidad, la transparencia y la responsabilidad en la toma de decisiones automatizadas (Peñas, 2025).

El punto crítico se ubica en ¿quién es responsable cuando una interacción con la IA tiene consecuencias reales?

Vulnerabilidad emocional y contexto de uso

No todas las personas interactúan con la IA desde el mismo lugar. Factores como la soledad, la ansiedad o la búsqueda de acompañamiento influyen en cómo se interpreta una respuesta automatizada.

Esta interacción implica reconocer que el impacto de la tecnología cambia según el estado emocional de quien la utiliza; por tal motivo, algunas demandas legales recientes apuntan hacia la relación entre diseño tecnológico y vulnerabilidad humana.

Regulación en construcción

Algunos marcos regulatorios ya están en desarrollo. La EU Artificial Intelligence Act, por ejemplo, propone clasificar los sistemas de IA según su nivel de riesgo, identificando como inaceptables aquellos que manipulan el comportamiento o implementan sistemas de puntuación social.

Este tipo de iniciativas reconoce que no toda IA implica el mismo nivel de impacto; pero también deja claro que ciertos usos requieren límites estrictos.

Preguntas frecuentes

¿Qué son los riesgos existenciales en la inteligencia artificial?
Son riesgos que pueden afectar profundamente la vida humana, ya sea en términos de seguridad, autonomía o percepción de la realidad.

¿Los chatbots pueden tener conciencia?
No. Funcionan mediante procesamiento de datos y patrones lingüísticos, sin experiencia subjetiva.

¿Por qué algunas personas desarrollan vínculos con la IA?
Por la capacidad de estos sistemas de simular conversación coherente y emocional; en especial, en contextos de vulnerabilidad.

¿Existe regulación sobre la IA?
Sí. La Unión Europea ha avanzado en un marco normativo que clasifica riesgos y limita ciertos usos.

El avance de la inteligencia artificial no se detendrá; así que, más que cuestionar qué puede hacer la tecnología, conviene preguntarnos ¿qué estamos dispuestos a delegar en ella?

Profundiza en estos temas desde una perspectiva académica con nuestra oferta educativa. Conócenos aquí.

Para saber más

Licenciatura en Derecho

AFP (2026). Character.AI y seguridad en menores. La Jornada.

EU Artificial Intelligence Act (2026).

Limón, R. (2026). Caso de relación con IA. El País.

Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (2024). Foro Global sobre la Ética

de la IA.

Peñas, L. (2025). Ética e inteligencia artificial.

Tecnológico de Monterrey (s/f). Ética y fundamentos de IA.

Yousif, N. (2025). Demandas relacionadas con IA. BBC News Mundo.





Últimas publicaciones: