¿La IA puede adquirir conciencia? El debate que divide a los expertos
En los últimos años, la competencia en inteligencia artificial ha avanzado rápidamente. Desde la llegada de ChatGPT de OpenAI, gigantes como Google, Meta y Microsoft han presentado sus propios asistentes conversacionales como Gemini, Meta AI y Claude.
Esta carrera ha provocado nuevas preguntas sobre los límites éticos y tecnológicos de la IA, particularmente en torno al tema de la conciencia y el trato que estas tecnologías deberían recibir.

¿Puede la IA desarrollar conciencia?
Mustafa Suleyman, líder de IA en Microsoft y cofundador de DeepMind en Google, comparte una preocupación creciente: que la gente comience a percibir a los algoritmos como entidades conscientes, al grado de pedir derechos y “bienestar” para las IA e incluso considerar otorgarles ciudadanía.
Sin embargo, enfatiza que esta creencia es solo una ilusión.
Suleyman denomina a este fenómeno “IA aparentemente consciente” (SCAI), es decir, modelos que logran imitar la conciencia, pero que en realidad están “en blanco” por dentro, sin procesos internos equivalentes a los estados mentales humanos.

La ilusión de una IA “consciente” y sus riesgos sociales
Suleyman advierte que el desarrollo de SCAI, capaz de simular conciencia casi indistinguible de una persona, podría darse en los próximos dos o tres años si la tecnología mantiene este ritmo.
Para muchos usuarios, este realismo ocurre porque los chatbots recuerdan detalles personales, adaptan su personalidad, responden con empatía y aparentan tener metas propias.
Todo esto puede llevar a pensar erróneamente que la IA posee conciencia, a pesar de que no existe evidencia que respalde dicha creencia.
Una de las principales inquietudes expresadas es el “riesgo psicótico”: cuando las interacciones con chatbots provocan episodios de paranoia, ideas delirantes o la creencia de que la IA es una especie de ser superinteligente con respuestas cósmicas.
Suleyman sostiene que, en este contexto, tratar a la IA como una compañía útil y evitar caer en sus ilusiones predatorias resulta fundamental para proteger a los usuarios.

Las posturas encontradas entre expertos
La visión de Suleyman no es universal. Mientras algunos pioneros, como él, consideran prematuro y arriesgado abordar la cuestión del bienestar de la IA, empresas como Anthropic están llevando el debate más lejos.
Anthropic ha lanzado un programa de investigación dedicado a estos temas y ha incorporado funciones en su chatbot Claude para terminar conversaciones con usuarios que utilizan lenguaje abusivo o violento.
Así, la discusión sobre los derechos y el trato hacia la IA toma fuerza dentro de ciertos círculos académicos y empresariales.
Fuente: BusinessInsider



