No hace mucho, la IA se hizo inteligente. Puede que algunos rechacen esta afirmación, pero el número de personas que dudan de la perspicacia de la IA es cada vez menor. Según una encuesta de YouGov de 2024, una clara mayoría de adultos estadounidenses afirma que las computadoras ya son más inteligentes que las personas o que lo serán en el futuro cercano.
Aun así, cabe preguntarse si la IA es realmente inteligente. En 1950, el matemático Alan Turing sugirió que esta es la pregunta equivocada, porque es demasiado vaga para merecer una investigación científica. En lugar de intentar determinar si las computadoras son inteligentes, argumentó, deberíamos ver si pueden responder a preguntas de una forma que no se pueda distinguir de la de los seres humanos. Consideraba esta prueba, ahora conocida como la prueba de Turing, no como un punto de referencia de la inteligencia de las computadoras, sino como un sustituto más pragmático de ese punto de referencia.
En lugar de suponer que definimos la inteligencia y luego preguntarnos si la IA cumple esa definición, hacemos algo más dinámico: interactuamos con una IA cada vez más sofisticada, y vemos cómo cambia nuestra comprensión de lo que cuenta como inteligencia. Turing predijo que, con el tiempo, “el uso de las palabras y la opinión general educada habrán cambiado tanto que se podrá hablar de máquinas que piensan sin esperar que se nos contradiga”.
Hoy hemos llegado a ese punto. La IA es un tipo de inteligencia de la misma manera en que la fotografía digital es un tipo de fotografía.
Y ahora la IA va camino de hacer algo aún más notable: volverse consciente. Esto ocurrirá del mismo modo que se hizo inteligente. A medida que interactuemos con una IA cada vez más sofisticada, desarrollaremos una concepción mejor y más inclusiva de la consciencia.
Podrías objetar que esto es un truco verbal, que estoy argumentando que la IA se hará consciente porque empezaremos a utilizar la palabra “consciente” para incluirla. Pero no hay ningún truco. Siempre existe un bucle de retroalimentación entre nuestras teorías y el mundo, de modo que nuestros conceptos se ven moldeados por lo que descubrimos.
Pensemos en el átomo. Durante siglos, nuestro concepto de átomo estuvo arraigado en una antigua noción griega de unidades indivisibles de la realidad. Todavía en el siglo XIX, físicos como John Dalton concebían los átomos como esferas sólidas e indivisibles. Pero tras el descubrimiento del electrón en 1897 y el del núcleo atómico en 1911, se produjo una revisión del concepto de átomo: de una entidad indivisible a una que puede ser descompuesta, un sistema solar en miniatura formado por electrones que orbitan alrededor de un núcleo. Y con nuevos descubrimientos vinieron nuevas revisiones conceptuales, que condujeron a nuestros complejos modelos mecánico-cuánticos del átomo actuales.
No se trataba de meros cambios semánticos. Nuestra comprensión del átomo mejoró con nuestra interacción con el mundo. Del mismo modo, nuestra comprensión de la consciencia mejorará con nuestra interacción con una IA cada vez más sofisticada.
Los escépticos podrían cuestionar esta analogía. Argumentarán que los griegos se equivocaron sobre la naturaleza del átomo, pero que nosotros no nos equivocamos sobre la naturaleza de la consciencia porque sabemos de primera mano lo que es la consciencia: la experiencia subjetiva interior. Un chatbot, insistirán los escépticos, puede informar que se siente feliz o triste, pero solo porque esas frases forman parte de sus datos de entrenamiento. Nunca sabrá cómo se sienten la felicidad y la tristeza.
Pero, ¿qué significa saber cómo se siente la tristeza? ¿Y cómo sabemos que es algo que una conciencia digital nunca podrá experimentar? Podemos pensar —y, de hecho, nos han enseñado a pensar— que los humanos tenemos un entendimiento directo de nuestro mundo interior, un entendimiento que no está mediado por conceptos que hemos aprendido. Sin embargo, después de aprender de Shakespeare que la pena de despedirse puede ser dulce, descubrimos nuevas dimensiones en nuestra propia experiencia. Gran parte de lo que “sentimos” nos lo enseñan.
















































