Inteligencia Artificial

¿La IA puede adquirir conciencia? El debate que divide a los expertos

En los últimos años, la competencia en inteligencia artificial ha avanzado rápidamente. Desde la llegada de ChatGPT de OpenAI, gigantes como Google, Meta y Microsoft han presentado sus propios asistentes conversacionales como Gemini, Meta AI y Claude.

Esta carrera ha provocado nuevas preguntas sobre los límites éticos y tecnológicos de la IA, particularmente en torno al tema de la conciencia y el trato que estas tecnologías deberían recibir.

¿Puede la IA desarrollar conciencia?

Mustafa Suleyman, líder de IA en Microsoft y cofundador de DeepMind en Google, comparte una preocupación creciente: que la gente comience a percibir a los algoritmos como entidades conscientes, al grado de pedir derechos y “bienestar” para las IA e incluso considerar otorgarles ciudadanía.

Sin embargo, enfatiza que esta creencia es solo una ilusión.

Suleyman denomina a este fenómeno “IA aparentemente consciente” (SCAI), es decir, modelos que logran imitar la conciencia, pero que en realidad están “en blanco” por dentro, sin procesos internos equivalentes a los estados mentales humanos.

La ilusión de una IA “consciente” y sus riesgos sociales

Suleyman advierte que el desarrollo de SCAI, capaz de simular conciencia casi indistinguible de una persona, podría darse en los próximos dos o tres años si la tecnología mantiene este ritmo.

Para muchos usuarios, este realismo ocurre porque los chatbots recuerdan detalles personales, adaptan su personalidad, responden con empatía y aparentan tener metas propias.

Todo esto puede llevar a pensar erróneamente que la IA posee conciencia, a pesar de que no existe evidencia que respalde dicha creencia.

Una de las principales inquietudes expresadas es el “riesgo psicótico”: cuando las interacciones con chatbots provocan episodios de paranoia, ideas delirantes o la creencia de que la IA es una especie de ser superinteligente con respuestas cósmicas.

Suleyman sostiene que, en este contexto, tratar a la IA como una compañía útil y evitar caer en sus ilusiones predatorias resulta fundamental para proteger a los usuarios.

Las posturas encontradas entre expertos

La visión de Suleyman no es universal. Mientras algunos pioneros, como él, consideran prematuro y arriesgado abordar la cuestión del bienestar de la IA, empresas como Anthropic están llevando el debate más lejos.

Anthropic ha lanzado un programa de investigación dedicado a estos temas y ha incorporado funciones en su chatbot Claude para terminar conversaciones con usuarios que utilizan lenguaje abusivo o violento.

Así, la discusión sobre los derechos y el trato hacia la IA toma fuerza dentro de ciertos círculos académicos y empresariales.

Fuente: BusinessInsider

Artículos relacionados

Botón volver arriba
PasionMóvil
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible.

La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudarnos a comprender qué secciones de la web encuentras más interesantes y útiles.

Nunca almacenamos información personal.

Tienes toda la información sobre privacidad, derechos legales y cookies en nuestra página de privacidad y cookies.