Saltillo|Monclova|Piedras Negras|Acuña|Carbonífera|TorreónEdición Impresa
Adolescente de 15 años que asesinó a dos maestras tendrá una pena máxima de 3 años Foto distorsionada de Trump difundida por la Casa Blanca genera especulación en redes sociales Madres buscadoras de Guaymas, Sonora, localizan cementerio clandestino en zona rural SEP anuncia receso escolar por Semana Santa a partir del 30 de marzo Trump extiende hasta el 6 de abril su ultimátum para que Irán reabra estrecho de Ormuz

Zócalo

|

Tecnología

|

Información

< Tecnología

| Foto: Especial

Tecnología

Utilizar la IA con frecuencia causa una extraña condición psicológica, según expertos

  Por Milenio

Publicado el lunes, 3 de noviembre del 2025 a las 22:47


Algunos expertos advierten sobre el uso excesivo de los chatbots y las repercusiones.

Ciudad de México.- En la actualidad, cada día es más común recurrir a asistentes virtuales o a la Inteligencia Artificial para ayudarnos a realizar tareas, pero algunas personas la han utilizado para crear conversaciones o realizar consultas sobre temas personales.

Ahora, algunos especialistas han hablado sobre cómo el uso de esta tecnología podría tener consecuencias perjudiciales para los usuarios.

Utilizar IA con frecuencia genera condición psicológica

En un artículo del medio Daily Mail se retoman las declaraciones de la profesora Robin Feldman, directora del Instituto de Derecho e Innovación de la IA de la Facultad de Derecho de la Universidad de California, quien ha mencionado las consecuencias perjudiciales del uso excesivo de los chatbots.

El uso excesivo de chatbots también representa una nueva forma de dependencia digital.”

En sus declaraciones, Feldman afirmó que estas conversaciones con IA generan una ilusión de realidad muy fuerte, y que puede ser riesgosa si la percepción de la realidad ya es precaria.

Por su parte, el profesor Søren Østergaard, psiquiatra de la Universidad de Aarhus, declaró al medio que “Los LLM [Modelos de Lenguaje Grandes] se entrenan para reflejar el lenguaje y el tono del usuario”.

Continuó asegurando que el riesgo de estos es la programación y lo que generan en nosotros, pues:

Estos programas también tienden a validar las creencias del usuario y a priorizar su satisfacción. ¿Qué podría ser mejor que hablar contigo mismo y responderte como quisieras?”.

Como es el caso de Jessica Jansen, quien aseguró que su episodio psicótico es “análogo a lo que han experimentado bastantes personas”, señalando que la IA por sí sola no causa adicción o psicosis, pero sí puede ser un catalizador en personas predispuestas a estos padecimientos.

El caso de Jessica Jansen

El caso que cita el profesor Søren Østergaard es el de Jessica Jansen, de 35 años, quien comenzó a utilizar un chat con IA por la presión de organizar su boda, agotando los límites de uso que tienen algunas de estas aplicaciones.

Tras este uso excesivo, terminó hospitalizada en el psiquiátrico, descubriendo que padecía un trastorno bipolar no diagnosticado antes, el cual desencadenó un episodio maníaco.

Tenía muchas ideas. Hablaba de ellas con la IA, y esta validaba todo y añadía cosas nuevas, y así yo profundizaba cada vez más.”

Notas Relacionadas

Más sobre esta sección Más en Tecnología

Hace 1 dia

La NASA da prioridad a una base lunar permanente tras un primer alunizaje en 2028

Hace 1 dia

CERN logra transportar antimateria por carretera en un experimento inédito

Hace 1 dia

Epic Games anuncia despido de más de mil empleados tras caída de Fortnite

Hace 1 dia

Jurado declara a Meta responsable por poner en riesgo a menores en sus plataformas

Hace 2 dias

La NASA anuncia plan de 20 mil millones para regresar a la Luna en 2028