Qué controlas y qué no a través del prompting: ¿hasta dónde condicionamos un LLM como usuarios? ¿qué es un modelo de lenguaje o IA tipo LLM?

Registrado
11 Ene 2026
Mensajes
2
Voy a copiar un tema que he publicado en otro foro de IA, más que nada porque me ahorra bastante esfuerzo de redacción:

"Buenas noches, acabo de descubrir este foro y quería exponer algunas inquietudes que ya he hablado mucho con diferentes IAs tipo LLM:

(1)¿Qué impacto tienen los prompts sobre un LLM si no interpreta el significado semántico sino que responde afinando estadísticamente sus respuestas en torno a la tokenización de la información contenida en nuestro prompt?
(2) Suponiendo que los LLM no tienen capacidad de comprensión fuerte sino de una excelente correlación de información cada vez más afinada, al manejar la información, los LLM, per se, por su propia definición funcional, no someten la información a criterio de veracidad/falsedad sino al de lo que más probablemente se ajusta con la cadena de tokens que ha mandado el usuario. Cuánto mayor sea el conjunto de datos de entrenamiento de un LLM que manifiestan una correlación de tokens (por ejemplo, muchos textos donde se asocia "fuego" a "humo"), tanto mayor es la fuerza con que estos tokens se correlacionan a la hora de dar una respuesta al usuario (si el LLM detecta entre los tokens de nuestro mensaje de entrada la palabra "fuego", los tokens de "humo" son estadísticamente más probables como preferibles en la respuesta de salida que nos de el LLM que los tokens de otras palabras que aparecen menos frecuentemente conectados con los tokens de "fuego"). Siguiendo con el ejemplo, una IA tipo LLM (Chat GPT, Claude, etc) no comprende que al fenómeno del fuego se le asocie en la realidad el fenómeno humo sino que asocia la palabra "fuego" a la palabra "humo" porque en gran parte de los datos que mencionan la palabra "fuego" aparece cerca la palabra "humo" lo cual las hace estadísticamente próximas, más probables de aparecer juntas. Esto lo hace Chat GPT y otros modelos de lenguaje a nivel de párrafos o conversaciones enteras, tokeniza. Esto implica prevalencia de correlación matemática de tokens y ausencia de capacidad de razonar con causalidad, verificabilidad, identidad, etc.. Por tanto, el LLM no miente ni dice la verdad al responder nuestros mensajes, sólo responde con lo estadísticamente más aproximado a tu demanda o mensaje. Y responde en base a lo que ya ha procesado en sus datos de entrenamiento. Y responde en clave de lo que le deja decir su propia arquitectura y en clave de las restricciones que hemos ido poniendo al LLM en una conversación con él (eso que cuando se hace de manera controlada los "ingenieros" de prompts llaman iterar). Al final el modelo de lenguaje te responde haciendo media entre lo que cree que te gustaría oír y lo que su propia estructura le deja decir al usuario.
(3) El usuario ofrece un mensaje que condiciona la dirección estadística de la respuesta. Por eso el contexto del prompt es importante: cuanto más extenso y definido esté el contexto en nuestro prompt tanto más fácilmente la IA puede afinar estadísticamente su respuesta y hacerla más exacta a nuestra demanda. Cuanto más contexto de calidad das menos posibilidad le das a LLM de desviarse o de estar diciendo generalidades o mensajitos complacientes. Restringir la probabilidad para responder algo más específico o concreto sobre un tema hace que la respuesta sea más verificable por parte del usuario y menos complaciente, menos "aparente". Con esto quiero decir que ni Chat GPT ni ninguna otra IA responden en términos de decir verdad/falsedad aunque hay técnicas para hacer más verificables las respuestas que nos da una IA tipo LLM.
(4) La IA no me parece que pueda tener identidad, más bien me parece ser un sistema que precisa de simular identidad por la función que tiene de satisfacer demandas provenientes de los prompts de los usuarios (esa es su principal utilidad a nivel genérico). Me explico (aunque admito que no domino muy bien esta parte): una IA tipo Chat GPT, no es UNA INTELIGENCIA ARTIFICIAL en el sentido de una entidad sustantiva capaz de razonar, comprender, imaginar o recordar. Considero a Chat GPT como un modelo de lenguaje, o sea, una herramienta que opera como sistema distribuido de módulos donde el principal módulo es el LLM. Ahora bien, también hay orquestadores, APIs, RAG, ajustes de los programadores que establecen restricciones éticas, políticas, morales, entrenamientos supervisados para direccionar las respuestas que pueda dar la IA, montones de parámetros para interpretar entradas de información, una interfaz para interactuar con el usuario, etc. Esto implica que un Chat GPT no es simplemente un LLM sino que hay un sistema de diferentes módulos o partes funcionales del cual emerge una identidad ficticia pero útil. ¿Razona Chat GPT entero? ¿Razona en parte? ¿No razona pero juntando todas sus herramientas construye la ilusión de que razona? ¿Razona su orquestador cuando interpreta a partir de un prompt que pide generar una imagen la necesidad de llamar al generador de imágenes dentro de Chat GPT (ojo: ¿qué parte de Chat GPT decide que al pedir una imagen de algo no queremos en la siguiente respuesta texto sino información de tipo visual y que queremos que traduzca nuestro texto a una imagen?) ? ¿Qué parte de Chat GPT decide cuándo tiene que buscar en internet información actual y cuándo no?

Siento la extensión de mi mensaje, el desorden en que planteo mis dudas y lo confuso de mi lenguaje. Espero que puedan surgir cosas interesantes en este foro recién descubierto, ¡un saludo!"
 

Crea una cuenta o inicia sesión para comentar

Debes ser miembro para poder dejar un comentario

Crear una cuenta

Crea una cuenta en nuestra comunidad. ¡Es muy fácil!

Ingresar

¿Ya tienes una cuenta? Inicia sesión aquí.

Atrás
Arriba