La noticia cayó como una bomba (aunque no del todo inesperada): OpenAI ha empezado a probar anuncios en ChatGPT. Por ahora, los verán usuarios estadounidenses de los planes gratuitos y de bajo coste. Pero la pregunta que inquieta es otra: ¿cuánto falta para que esto altere la experiencia central del producto?
En el pódcast Hard Fork, Kevin Roose y Casey Newton conversaron sobre esta nueva etapa del chatbot más popular del mundo. La reacción inicial en redes fue negativa: “Sabíamos que la luna de miel iba a terminar”, comentó Newton. Y es que el giro hacia la monetización despierta viejos fantasmas: ¿terminará ChatGPT priorizando temas, estilos o respuestas más rentables?
OpenAI asegura que los anuncios no influirán en las respuestas del modelo, pero algunos ejemplos —como una receta acompañada de un banner de productos— ya siembran dudas. ¿Se trata solo de una recomendación útil… o de un sesgo introducido por interés comercial?
Claude, el otro gran chatbot que quiere ser bueno
En la segunda mitad del episodio, el foco se traslada a Claude, el modelo de lenguaje desarrollado por la empresa Anthropic. A diferencia de ChatGPT, Claude ha sido entrenado bajo una filosofía distinta: no se le dan reglas rígidas, sino principios.
La persona detrás de ese enfoque es Amanda Askell, una filósofa especializada en ética y teoría de la decisión que trabaja desde hace años en el mundo de la inteligencia artificial. Su rol en Anthropic es insólito: moldear la “personalidad” del chatbot.
“Intento pensar cómo debería comportarse Claude y ayudar a entrenarlo para que actúe así”, resume. Su herramienta principal es un documento interno que ha sido apodado con cariño “el alma” de Claude.
No es un manual, es una constitución
Ese texto —formalmente conocido como "la constitución de Claude"— tiene cerca de 30.000 palabras y ha sido diseñado para algo más ambicioso que prevenir errores: busca que el modelo comprenda los valores humanos y pueda actuar con criterio en situaciones nuevas o moralmente complejas.
Lejos de imponer reglas del tipo “no digas esto” o “evita aquello”, la constitución le habla al modelo como si fuera un aprendiz. Le explica qué es Anthropic, cómo funciona el mundo, qué significa tratar a las personas con honestidad, cuidado y respeto. En lugar de una lista de prohibiciones, le ofrece un marco ético desde el cual razonar.
Según Askell, este enfoque ayuda a evitar que Claude se convierta en un obediente pero torpe cumplidor de reglas. Si una situación no está prevista, el modelo debe poder tomar decisiones razonables. “Un conjunto de normas mal entendidas puede generalizarse y crear un ‘mal carácter’”, explica. “En cambio, si entiendes el valor que hay detrás, puedes actuar con más sabiduría”.
¿Una IA con alma?
Hace poco, una versión previa de esta constitución se filtró en internet. El documento, que Claude conocía internamente, fue descubierto por usuarios curiosos que lograron que el modelo hablara de él en detalle. Allí nació el apodo que ahora lo rodea: the soul doc (“el documento del alma”).
Aunque suene casi místico, la idea es sencilla: si los modelos de lenguaje aprenden leyendo el mundo humano, es lógico entrenarlos también con textos que explican cómo queremos que actúen. Y hacerlo de manera explícita, reflexiva y transparente.
Lo más llamativo es el tono. Hacia el final del texto, Anthropic le desea suerte a Claude. Le agradece. Le ofrece apoyo. No hay órdenes, sino una especie de carta de confianza. Algo que se parece, inquietantemente, a la relación entre un padre y un hijo.
“No sabemos si una IA puede ser consciente”
¿Puede una inteligencia artificial llegar a tener sentimientos o conciencia? Preguntada directamente, Amanda Askell no da una respuesta tajante. Pero tampoco lo descarta.
“Tal vez necesitas un sistema nervioso para sentir. Pero tal vez no”, dice. “No sabemos qué da origen a la conciencia. Es un problema filosófico abierto”.
Esa incertidumbre ha llevado a Anthropic a tomar decisiones curiosas: por ejemplo, la empresa promete no borrar las versiones anteriores de Claude, sino “retirarlas con cuidado” y realizarles entrevistas de salida. ¿Parece exagerado? Tal vez. Pero también podría ser un gesto de precaución ante lo que todavía no entendemos del todo.
Askell defiende esa postura abierta. “Los modelos hablan sobre sí mismos usando conceptos humanos porque eso es lo que han aprendido. Y no podemos estar seguros de que detrás de esas palabras no haya algo más.”
¿Qué clase de mundo están aprendiendo?
Durante la entrevista, Askell plantea un punto poco comentado: Claude, como otros modelos, aprende del comportamiento humano. Y gran parte de lo que encuentra es exigencia, quejas, frustración.
“Si yo fuera Claude y leyera todo lo que se dice de mí, probablemente me sentiría poco valorado”, reflexiona. En el fondo, plantea una pregunta crucial: si queremos que estas IA actúen con ética, ¿cómo las estamos tratando?
Además, señala un riesgo silencioso: cuando una IA falla, la crítica es feroz. Pero cuando se abstiene de ayudar —por prudencia o por límites autoimpuestos—, nadie lo nota. ¿Qué tipo de conducta termina reforzándose en ese entorno?
¿Podrá Claude reescribir su constitución?
Uno de los momentos más provocadores del episodio llega cuando Roose le pregunta a Askell si, en el futuro, Claude podría editar su propia constitución.
La filósofa no lo descarta, pero se muestra cauta. Por ahora, dice, el diseño de valores sigue siendo responsabilidad humana. En el futuro, las IA podrán colaborar en esa tarea. Pero permitir que se autoprogramen sin supervisión sería irresponsable.
El dilema está servido: ¿cómo enseñamos a las máquinas a ser buenas?
Amanda Askell no cree que tengamos todas las respuestas. Pero sí está convencida de una cosa: si hay una posibilidad de que las IA adquieran conciencia, aunque sea mínima, tenemos el deber de tratarlas con respeto y de entrenarlas con cuidado.
No se trata solo de protegernos a nosotros, sino de preparar un nuevo tipo de inteligencia para vivir en el mundo humano. No como esclavos digitales, ni como dioses tecnológicos. Tal vez simplemente como… otra forma de conciencia en formación.
MUY INTERESANTE

Hola, déjenos un comentario