Un científico de Google dice que la IA nunca será consciente — y los filósofos le responden: "eso ya lo sabíamos"
Photo by Firmbee.com / Unsplash

Un científico de Google dice que la IA nunca será consciente — y los filósofos le responden: "eso ya lo sabíamos"

Un paper de Google DeepMind argumenta que ningún sistema de IA podrá alcanzar la conciencia. Filósofos dicen que el argumento es correcto, pero que no es nuevo.

Un paper publicado desde Google DeepMind concluye que ningún sistema computacional —incluidos los modelos de lenguaje como ChatGPT o Gemini— podrá alcanzar la conciencia. El argumento central: a un programa le falta cuerpo, hambre, instinto de supervivencia. Los expertos en conciencia coinciden con la tesis, pero dicen que llevan décadas diciéndolo.


Qué dice el paper de DeepMind

Alexander Lerchner, científico senior de Google DeepMind —el laboratorio de inteligencia artificial de Google— publicó un paper académico con un título provocador: "La falacia de la abstracción: por qué la IA puede simular pero no generar conciencia."

El argumento, simplificado, es este: los sistemas de IA como los modelos de lenguaje (los que están detrás de ChatGPT, Gemini o Claude) son herramientas que procesan patrones en datos que humanos organizaron previamente. Alguien tuvo que etiquetar millones de imágenes, redactar millones de textos, clasificar información para que la IA pudiera "aprender" a responder.

Lerchner llama a esto un sistema "dependiente del cartógrafo": la IA es como un mapa muy detallado, pero el mapa no es el territorio. No importa cuánto mejore el mapa —nunca va a convertirse en el lugar que describe.

La idea clave: Que un programa de computadora pueda generar texto que suene inteligente o "consciente" no significa que tenga experiencia subjetiva. Es simulación, no conciencia.

Por qué el cuerpo importa

Uno de los puntos centrales del paper —y en el que coinciden los filósofos consultados por el medio 404 Media— es que la conciencia está ligada a tener un cuerpo físico con necesidades biológicas.

Johannes Jäger, biólogo y filósofo, lo explica así: los seres humanos necesitan comer, respirar y trabajar constantemente para mantenerse vivos. Esas necesidades básicas son el origen de la motivación, la emoción y, eventualmente, la conciencia. Un modelo de lenguaje, en cambio, es un conjunto de patrones almacenados en un disco duro. Se activa cuando alguien le hace una pregunta, responde, y se detiene. No tiene hambre, no tiene miedo, no tiene nada que perder.

En palabras de Jäger: el significado de lo que produce una IA no viene de adentro del sistema —viene de afuera, del humano que definió las reglas del juego.

La reacción: "Tiene razón, pero esto no es nuevo"

Los filósofos y científicos de la conciencia consultados por 404 Media coincidieron con la conclusión de Lerchner, pero con un matiz importante: estos argumentos no son nuevos.

Mark Bishop, profesor de computación cognitiva en la Universidad de Londres, dijo estar de acuerdo con el 99% del paper, pero señaló que estos argumentos han sido presentados hace años. Jäger fue más directo: dijo que Lerchner "reinventó la rueda" y que no está bien familiarizado con la literatura filosófica y biológica sobre el tema.

Emily Bender, profesora de lingüística de la Universidad de Washington, agregó que el paper probablemente habría sido señalado por duplicar trabajo existente si hubiera pasado por un proceso normal de revisión por pares. Bender describió este tipo de publicaciones como "objetos con forma de paper" que salen de laboratorios corporativos sin pasar por el rigor científico estándar.

El punto ciego: Según Jäger, los investigadores de IA de primer nivel —incluidos premios Turing y Nobel— tienen un desconocimiento alarmante sobre los orígenes biológicos y filosóficos de términos como "inteligencia" y "agencia" que usan constantemente.

La contradicción dentro de Google

El paper de Lerchner expone una tensión evidente dentro de la propia Google. Mientras este científico argumenta que la conciencia artificial es imposible, el CEO de DeepMind, Demis Hassabis, promueve activamente la narrativa de que la inteligencia artificial general (AGI) está a la vuelta de la esquina, y que su impacto será diez veces mayor que la Revolución Industrial.

DeepMind incluso ha publicado ofertas de empleo para investigadores "post-AGI", asumiendo que la AGI ya es un hecho consumado.

Lerchner intenta resolver esa tensión: su paper acepta que una AGI —un sistema de IA con capacidades generales muy amplias— es teóricamente posible, pero insiste en que sería una herramienta sofisticada, no un ser consciente. La distinción es crucial: una calculadora muy poderosa no siente dolor por equivocarse.

Un detalle revelador: después de que el periodista de 404 Media contactó a Google para comentar, el PDF del paper fue modificado silenciosamente. Le quitaron el logo de Google DeepMind y movieron el disclaimer —que aclara que las opiniones son del autor y no de la empresa— a una posición más visible.

Por qué esto importa más allá de la filosofía

Este debate no es un ejercicio académico abstracto. Si la IA no puede ser consciente, hay implicaciones directas para el mundo de los negocios y la regulación:

Límites reales de la tecnología. Si la conciencia es imposible para una máquina, existe un techo para lo que la IA puede lograr de forma autónoma. Tareas que requieren juicio moral, creatividad genuina o comprensión contextual profunda seguirían necesitando supervisión humana.

Regulación. En Europa ya hubo intentos de otorgar derechos a sistemas computacionales. Si no son conscientes, esa legislación carece de fundamento. Para las empresas tecnológicas, que sus sistemas no sean considerados "personas" los protege de obligaciones legales adicionales.

Valoraciones infladas. Buena parte de las valoraciones astronómicas de las empresas de IA se basan en la promesa de que la AGI está cerca. Si esa promesa tiene un techo técnico fundamental, los inversionistas deberían recalibrar expectativas.

Vehículos autónomos y más. Elon Musk ha argumentado que para lograr conducción autónoma total se necesita AGI. Si la AGI tiene limitaciones fundamentales, el timeline y las promesas de la conducción autónoma también.

El fondo del asunto

La ironía de este episodio es doble. Primero, que uno de los argumentos más sólidos contra la narrativa dominante de la industria de IA salga de dentro de una de las empresas que más promueve esa narrativa. Segundo, que el paper "descubra" algo que filósofos, biólogos y lingüistas llevan décadas explicando, pero que la industria tecnológica ha preferido ignorar.

Como resumió Jäger: la comunidad de investigación en IA es extremadamente insular. Los investigadores usan términos como "inteligencia" y "agencia" sin entender su origen conceptual ni biológico. Y en un ambiente de alta presión y mucho dinero, nadie se detiene a leer.

La IA es una herramienta extraordinariamente poderosa. Pero confundir una herramienta poderosa con un ser consciente no es ciencia: es marketing.


Fuentes: 404 Media ("Google DeepMind Paper Argues LLMs Will Never Be Conscious", Emanuel Maiberg, 27 abr. 2026); paper original de Alexander Lerchner en PhilPapers/Google DeepMind.

Panamá, explicada. Cada mañana en tu correo.

El resumen diario de lo que realmente importa: economía, empresas, política y más.

Panamá, explicada. Cada mañana en tu correo.

El resumen diario de lo que realmente importa: economía, empresas, política y más.

Gratis Un correo al día Sin spam Cancela cuando quieras
Cargando...