- Registrado
- 20 Ene 2026
- Mensajes
- 4
- Tema Autor
- #1
Hola a todos,
Últimamente he estado experimentando un poco con modelos de código abierto para correrlos en local (como las versiones de Llama o Mistral) en lugar de depender siempre de la API de OpenAI o Gemini.
Me surge la duda: ¿Creen que para un usuario promedio o un desarrollador vale la pena invertir en hardware para correr su propia IA localmente?
Por un lado está la ventaja de la privacidad total (tus datos no salen de tu PC) y que no hay censura, pero por otro lado, siento que todavía estamos lejos de la potencia de razonamiento que tiene GPT-4 o los modelos más grandes de la nube.
¿Alguno aquí corre modelos en su propia máquina? ¿Qué specs recomiendan o creen que es mejor seguir pagando la suscripción mensual?
Últimamente he estado experimentando un poco con modelos de código abierto para correrlos en local (como las versiones de Llama o Mistral) en lugar de depender siempre de la API de OpenAI o Gemini.
Me surge la duda: ¿Creen que para un usuario promedio o un desarrollador vale la pena invertir en hardware para correr su propia IA localmente?
Por un lado está la ventaja de la privacidad total (tus datos no salen de tu PC) y que no hay censura, pero por otro lado, siento que todavía estamos lejos de la potencia de razonamiento que tiene GPT-4 o los modelos más grandes de la nube.
¿Alguno aquí corre modelos en su propia máquina? ¿Qué specs recomiendan o creen que es mejor seguir pagando la suscripción mensual?