Explorando el blog de Toni
Toni Domenech

El Blog de Toni Domenech

Ideas, código, reflexiones y experimentos digitales

Crear rápido
Panel
IA

Cómo tener una IA en local en tu PC para interactuar directamente con Windows 11

13/04/2026 02:05
Cómo tener una IA en local en tu PC para interactuar directamente con Windows 11

Resumen listo para agente

Qué: Este artículo explica Cómo tener una IA en local en tu PC para interactuar directamente con Windows 11.

Por qué: Sirve para tomar decisiones rápidas con contexto técnico y de negocio.

Cómo: La idea de tener una IA en local ya no es una rareza ni un experimento reservado a perfiles muy técnicos. Hoy es perfectamente posible montar en un PC con Windows 11 un asistente que funcion...

Preguntas clave de esta página

  • ¿Qué resuelve exactamente este enfoque?
  • ¿Qué resultados puedo esperar en tiempo y coste?
  • ¿Cómo lo adapto a mi contexto sin rehacer todo?

La idea de tener una IA en local ya no es una rareza ni un experimento reservado a perfiles muy técnicos. Hoy es perfectamente posible montar en un PC con Windows 11 un asistente que funcione en tu propia máquina, que procese tus datos sin salir a la nube y que, además, pueda ejecutar acciones reales sobre el sistema operativo. Para conseguirlo no basta con instalar “un modelo”; hace falta unir tres piezas: un motor que ejecute la IA, una interfaz o agente que entienda nuestras órdenes y una capa de herramientas que traduzca esas órdenes en acciones dentro de Windows. Ollama es una de las opciones más directas para correr modelos en local en Windows, ofrece API local en http://localhost:11434 y soporta tool calling, es decir, la capacidad de que el modelo invoque funciones externas.

Qué significa realmente que una IA “interactúe” con Windows 11

Cuando hablamos de una IA que interactúa con Windows 11 no estamos hablando solo de chatear. Hablamos de que pueda abrir programas, lanzar scripts, mover archivos, consultar carpetas, generar documentos, automatizar tareas repetitivas o ejecutar comandos de PowerShell. En Windows, PowerShell sigue siendo la vía más natural para automatizar tareas administrativas y de sistema, y está disponible de forma nativa en las versiones modernas del sistema operativo. Además, Windows Terminal es el contenedor por defecto para PowerShell y otras consolas en Windows 11, lo que encaja muy bien con un flujo de trabajo basado en automatización local.

La arquitectura más recomendable

La forma más sólida de montar este entorno es pensar en capas:

1. Motor local de IA. Aquí entra Ollama, que se instala en Windows sin requerir permisos de administrador por defecto y permite descargar y ejecutar modelos locales. Eso sí, conviene tener claro que el programa necesita espacio para la instalación y bastante almacenamiento adicional para los modelos, que pueden ocupar desde decenas hasta cientos de GB según el tamaño elegido. También puede trabajar sobre CPU o GPU, dependiendo del hardware disponible.

2. Interfaz o agente. Si se busca sencillez, AnythingLLM Desktop es una opción muy cómoda porque está pensado como aplicación local, de un solo usuario, con enfoque de privacidad y soporte para agentes. Si se busca más flexibilidad técnica y una plataforma más modular, Open WebUI destaca por funcionar offline, conectarse a Ollama y añadir extensibilidad mediante herramientas, OpenAPI y MCP.

3. Capa de acciones sobre Windows. Esta es la parte decisiva. La IA no “toca” Windows por arte de magia: necesita herramientas concretas. Esas herramientas pueden ser scripts de PowerShell, funciones personalizadas o servidores MCP que expongan operaciones concretas como “listar descargas”, “abrir Word”, “crear una carpeta” o “ejecutar una copia de seguridad”. Ollama soporta tool calling y plataformas como AnythingLLM y Open WebUI pueden trabajar con herramientas y MCP para encadenar esas acciones.

La opción más fácil: Ollama + AnythingLLM Desktop

Para la mayoría de usuarios de Windows 11, esta es la puerta de entrada más razonable. AnythingLLM Desktop está pensado para instalarse en Windows, quedarse en el propio equipo y ofrecer LLMs locales, RAG y agentes con poca configuración. Además, soporta MCP, lo que permite conectar herramientas externas sin tener que construir una plataforma completa desde cero.

El flujo sería así:

  1. Instalar Ollama en Windows.
  2. Descargar un modelo local adecuado.
  3. Instalar AnythingLLM Desktop.
  4. Conectar AnythingLLM con Ollama como proveedor del modelo.
  5. Añadir herramientas o un servidor MCP que exponga acciones de Windows.
  6. Definir instrucciones del agente para que pida confirmación antes de ejecutar tareas sensibles.

Un ejemplo muy básico de arranque con Ollama sería:

ollama

Desde ese menú interactivo es posible ejecutar un modelo o lanzar integraciones. La propia documentación de Ollama ya incluye accesos rápidos para chat, herramientas e integraciones.

Si prefieres descargar un modelo de forma directa desde la consola, el flujo habitual es:

ollama pull nombre-del-modeloollama run nombre-del-modelo

La CLI oficial permite descargar modelos, listarlos, ejecutarlos y eliminarlos.

La opción más potente: Ollama + Open WebUI + PowerShell/MCP

Si el objetivo no es solo “tener una IA”, sino construir un auténtico panel de control local sobre Windows 11, Open WebUI ofrece más juego. Está diseñado para funcionar offline, soporta Ollama y añade extensibilidad con herramientas en Python, soporte MCP nativo y descubrimiento de herramientas vía OpenAPI.

Ahora bien, aquí hay una advertencia importante: la propia documentación de Open WebUI deja claro que sus herramientas y funciones pueden ejecutar Python arbitrario en el servidor o equipo donde corre la aplicación, y que conceder permisos para importar o crear herramientas equivale, en la práctica, a dar acceso muy sensible al sistema.

Dicho de forma simple: si la IA va a controlar Windows, no conviene darle una terminal sin límites. Lo inteligente es exponerle solo acciones concretas y controladas. Esta recomendación es una inferencia directa de la advertencia de seguridad de Open WebUI y del papel de PowerShell como capa de automatización del sistema.

Cómo hacerlo de forma segura

La clave no es dar más poder al modelo, sino darle el poder justo. En lugar de permitirle ejecutar cualquier comando, es mejor preparar un pequeño catálogo de acciones cerradas. Por ejemplo:

  • abrir_navegador
  • listar_descargas
  • crear_carpeta_proyecto
  • mover_archivo_a_documentos
  • ejecutar_backup
  • mostrar_procesos_activos

Cada una de esas acciones puede estar respaldada por un script de PowerShell. PowerShell está pensado precisamente para automatizar tareas administrativas y permite encapsular lógica en funciones reutilizables.

Un ejemplo sencillo de función en PowerShell para abrir una aplicación podría ser:

function Abrir-BlocDeNotas {    Start-Process notepad.exe}

Y otra para listar archivos de una carpeta concreta:

function Ver-Descargas {    Get-ChildItem "$HOME\Downloads"}

El paso realmente importante no es el script en sí, sino cómo se expone al agente: como una herramienta concreta con nombre, descripción y parámetros limitados. Así la IA no decide libremente qué comandos lanzar, sino que elige entre herramientas preparadas por nosotros. Ese es justamente el modelo de trabajo que favorecen el tool calling de Ollama y los entornos basados en agentes.

¿Hace falta activar el modo desarrollador de Windows?

En la mayoría de casos, no. Microsoft indica que el Modo Desarrollador está pensado para escenarios de desarrollo, depuración y despliegue, y que no es necesario para un uso corriente del equipo. Por eso, para montar una IA local que automatice tareas mediante Ollama, PowerShell y una interfaz de agentes, lo normal es no necesitarlo.

Qué tipo de tareas merece la pena automatizar

La mejor IA local no es la que intenta hacerlo todo, sino la que resuelve bien unas cuantas cosas útiles del día a día. Por ejemplo:

  • organizar carpetas de trabajo;
  • abrir conjuntos de aplicaciones según el contexto;
  • generar resúmenes locales de documentos;
  • ejecutar scripts de mantenimiento;
  • consultar información del sistema;
  • preparar plantillas, informes o archivos repetitivos.

AnythingLLM ya plantea agentes capaces de usar herramientas, trabajar con documentos y guardar archivos en el escritorio, mientras que Open WebUI apuesta por un ecosistema más técnico y modular con herramientas y MCP. Eso demuestra que la automatización local ha pasado de ser una rareza a convertirse en un flujo realista para usuarios avanzados y creadores de contenido técnico.

Mi recomendación final

Si quieres algo funcional en poco tiempo, empieza con Ollama + AnythingLLM Desktop. Vas a tener un entorno local, privado y más fácil de poner en marcha. Si más adelante necesitas más control, más personalización o una integración más técnica con herramientas propias, pasa a Ollama + Open WebUI + scripts de PowerShell o MCP.

La diferencia entre “tener una IA en local” y “tener una IA útil en local” está en esto: no basta con instalar un modelo, hay que diseñar bien cómo va a actuar sobre el sistema. Cuando se hace bien, Windows 11 deja de ser solo el lugar donde corre la IA y pasa a convertirse en el entorno que la IA puede entender, consultar y automatizar de forma controlada.

Toni Domenech


¿Quieres que esto funcione en tu empresa?

Adaptamos estas ideas a tu contexto concreto con un diagnóstico rápido de 15 minutos.

Pide un diagnóstico

Diagnóstico AI-First en 15 minutos