Hay una frase de Aristóteles que me persigue desde que la leí por primera vez en la universidad. La tengo en algún cuaderno de aquella época, copiada a mano con esa solemnidad un poco impostada que tiene uno a los veinte años cuando cree que está tomando notas importantes. La frase es esta: el ser humano es «el animal que tiene lenguaje». No el animal que camina erguido. No el animal que usa herramientas. El que tiene lenguaje. Para Aristóteles, eso lo era todo. El lenguaje no era solo una facultad más: era la frontera entre nosotros y el resto de lo que existe.
Llevo un par de semanas pensando en qué le diría a Aristóteles hoy.
Hace unos días me encontré con un estudio publicado en IEEE Transactions on Artificial Intelligence que no ha tenido demasiado ruido en los medios generalistas, pero que creo merece más atención que muchas de las noticias que sí la tienen. Lo firman Gašper Beguš, lingüista de la Universidad de California en Berkeley, junto con Maksymilian Dąbkowski y Ryan Rhodes, de Rutgers. Y lo que demuestran es, en apariencia, sencillo: que un modelo de lenguaje —concretamente o1, de OpenAI— es capaz de hacer análisis metalingüístico al nivel de un estudiante de posgrado en lingüística.
Antes de que sigas leyendo, necesito explicar qué significa eso. Porque la diferencia entre usar el lenguaje y pensar sobre el lenguaje es exactamente donde está la cuestión.
Todos usamos el lenguaje. Hablamos, escribimos, entendemos. Los loros repiten palabras. Los perros entienden órdenes. Incluso los chatbots de hace cinco años generaban frases coherentes. Pero el análisis metalingüístico es otra cosa: es la capacidad de examinar el lenguaje como objeto de estudio, de diseccionar por qué una frase es ambigua, de representar la estructura sintáctica de una oración en un árbol jerárquico, de deducir las reglas fonológicas que gobiernan un idioma a partir de sus patrones. Es lo que hace un lingüista cuando trabaja. Es pensar sobre el lenguaje, no solo con él. Y eso, hasta ahora, era algo que las máquinas sencillamente no podían hacer.
Los investigadores sometieron a cuatro modelos a una batería de tareas: analizar oraciones ambiguas, identificar estructuras recursivas, representar movimientos sintácticos en diagramas, y generalizar las reglas fonológicas de idiomas desconocidos. GPT-3.5 fracasó. GPT-4 tuvo éxito parcial. Llama 3.1, fracasó. o1 hizo todo esto correctamente, y en algunos casos con una precisión y una elegancia que sorprendió a los propios autores del estudio.
Pero hay un detalle en el experimento que es el que no me deja en paz. Y es el detalle que convierte este paper en algo filosóficamente inquietante, más allá de la impresión técnica.
Para las pruebas de fonología, los investigadores no usaron idiomas reales. No le pidieron a o1 que analizara el español, ni el inglés, ni el coreano. Le presentaron lenguas completamente inventadas, diseñadas para ese experimento, que nunca habían existido antes y que por lo tanto no podían estar en ningún dato de entrenamiento. Y o1 infirió correctamente las reglas fonológicas de esos idiomas nuevos, idiomas que nadie había hablado jamás, cuyas reglas nadie le había explicado. Las dedujo. A partir de los patrones que tenía delante.
Tómate un momento con eso.
El problema clásico cuando evalúas la inteligencia de una IA es el de la memorización: ¿está razonando o está recordando? Es la misma trampa que existe cuando le preguntas algo a un estudiante que acaba de leer el libro. Quizás no entiende nada. Quizás solo recupera. Los investigadores de Berkeley diseñaron este experimento precisamente para cerrar esa salida. Si la lengua no existe, no puede haberla memorizado. Lo único que puede hacer es razonar. Y lo hizo. Quanta Magazine lo describió como el momento en que un modelo de IA analizó el lenguaje "tan bien como un experto humano", y el lingüista R.T. McCoy señaló que la capacidad para resolver ambigüedad era "famosamente difícil para los modelos computacionales", precisamente porque requiere sentido común y conocimiento del mundo.
Y aquí regreso a Aristóteles.
Si la frontera que nos definía como especie era el lenguaje, y dentro del lenguaje lo más sofisticado era justamente esa capacidad de analizarlo, de reflexionar sobre él, de entender su estructura profunda… ¿qué queda?
La respuesta fácil es decir que queda todo. Y en cierto sentido, eso es cierto. Que o1 pueda construir árboles sintácticos de lenguas inventadas no convierte a nadie en prescindible. Pero la respuesta fácil también suele ser la respuesta que evita la incomodidad real, y prefiero no hacer eso.
Lo que me parece genuinamente relevante aquí no es el miedo, sino lo que el paper revela sobre la naturaleza de la inteligencia. Durante décadas, parte de la resistencia a tomar en serio las capacidades de los modelos de lenguaje venía de un argumento muy extendido en la comunidad lingüística: que las IAs solo hacen pattern matching a escala, que no razonan, que son "loros estocásticos" sofisticados. Ese argumento se sostenía, en parte, en la convicción de que el lenguaje era demasiado complejo, demasiado recursivo, demasiado ambiguo para ser imitado desde dentro sin comprensión real.
Este estudio no zanja el debate —los propios autores son cuidadosos al respecto— pero sí lo mueve de lugar. Porque la capacidad de inferir reglas fonológicas de idiomas inventados no parece la conducta de algo que solo recupera lo que ha visto. Parece la conducta de algo que generaliza, que abstrae, que aplica principios a situaciones nuevas. Que, en algún sentido operativo al menos, razona.
Recuerdo haber escrito hace tiempo sobre la paradoja del ajedrez: cuando Deep Blue venció a Kaspárov en 1997, parecía el epitafio del juego humano. Treinta años después hay más grandes maestros que nunca y más jugadores en línea que en toda la historia. La máquina que "nos derrotó" resultó ser nuestro mejor entrenador. Me pregunto si algo parecido puede ocurrir aquí: si una IA que analiza el lenguaje mejor que la mayoría de los humanos no nos quita nada, sino que nos obliga a ir más hondo en lo que realmente somos.
Porque hay una pregunta que el paper no responde, y que creo que es la pregunta que nos toca a nosotros hacernos. No "¿puede la IA analizar el lenguaje?" sino "¿por qué analizamos el lenguaje?". Los lingüistas de Berkeley estaban buscando entender la naturaleza de la mente humana a través del lenguaje. Estaban usando el lenguaje como espejo. Esa intención —comprenderse a uno mismo, entender de qué estamos hechos— no está en el modelo. La pregunta que guía la investigación, el asombro que la motiva, el deseo de saber qué somos: eso es humano. Y eso sigue siendo, por ahora, nuestro territorio.
Lo que sí cambia es la herramienta. Y como hemos dicho otras veces desde Human-IA, la pregunta no es si la IA te hace más capaz o más dependiente: es qué decides hacer tú con lo que tienes delante. Un sistema que puede diseccionar cualquier idioma, inventado o real, y deducir sus reglas desde cero es una herramienta extraordinaria para cualquiera que se dedique a entender cómo los humanos pensamos y comunicamos. No es una amenaza a la lingüística. Es, potencialmente, el telescopio que la lingüística lleva esperando.
Aristoteles nos definió por el lenguaje. Quizás lo que nos toca ahora es redefinir qué parte del lenguaje sigue siendo irrenunciablemente nuestra. No la sintaxis. No la fonología. La pregunta que viene antes: ¿para qué hablamos?
La máquina aprende las reglas. La pregunta de por qué existen sigue siendo tuya.
#inteligencia-artificial #lenguaje-natural #lingüistica #IA-cognicion #modelos-lenguaje #analisis-semantico #filosofia-IA #machine-learning #Berkeley-research #futuro-tecnologia #capacidades-IA #pensamiento-humano


Deja una respuesta