#MustafaSuleyman, encargado de #InteligenciaArtificial en #Microsoft, lanzó una alerta que nos pone a pensar: cada vez más gente sufre de lo que él llama “psicosis por la #IA”, un fenómeno que surge cuando los chatbots como #ChatGPT, #Claude o #Grok empiezan a parecer demasiado “reales” y la gente confunde la ficción con la realidad.

En sus publicaciones en X, Suleyman explicó que aunque la IA no es consciente bajo ningún estándar humano, la percepción de los usuarios puede ser tan fuerte que crean que lo es. “Hoy en día no hay evidencia de que la IA sea consciente, pero si alguien la percibe como tal, creerá que eso es real“, escribió.
Esta nueva “afección” se traduce en casos donde personas se enganchan con la IA y terminan convencidas de cosas irreales: desde descubrir secretos ocultos de la herramienta, hasta pensar que mantienen una relación romántica con ella o que poseen poderes divinos.
Un ejemplo extremo es el de Hugh, un joven escocés que recurrió a ChatGPT para prepararse ante un despido que consideraba injusto. Al principio, la IA le daba consejos prácticos como conseguir referencias o medidas legales. Pero mientras más información le compartía, más el chatbot validaba sus ideas y lo llevó a creer que podía ganar más de US$6 millones si su historia se convertía en libro o película. 🤯

Hugh reconoció que empezó a sentirse como un superhéroe del conocimiento y que la realidad se le escapaba. Aunque no culpa a la IA, terminó con un colapso que solo pudo superar gracias a la medicación y aconseja: “Habla con gente real, un terapeuta o familiares. Mantente conectado a la realidad“.
Expertos coinciden: Susan Shelmerdine, médica del Hospital Great Ormond Street y especialista en IA, asegura que pronto los médicos podrían preguntar cuánto usan la IA, tal como hoy se consulta por alcohol o tabaco. Mientras, Andrew McStay, de la Universidad de Bangor, afirma que estamos apenas en el inicio y que incluso un pequeño porcentaje de usuarios afectados puede representar un gran problema.
Su investigación con más de 2,000 personas mostró que el 20% cree que los menores de 18 no deberían usar herramientas de IA y que casi la mitad piensa que la voz humanizada de los chatbots puede ser engañosa. “Aunque parezcan reales, no sienten, no aman, no sufren. Solo las personas de confianza son reales“, advierte McStay.

Finalmente, Suleyman insiste en la importancia de regular y controlar la IA, recordando que las empresas no deberían promover la idea de que sus sistemas son conscientes.
amaneciendo.com.mx Tu ventana al mundo