Cómo instalar los últimos modelos de lenguaje grande (LLM) localmente en una Mac

En los últimos años, los Modelos de Lenguaje Grandes (LLM) se han vuelto cada vez más populares gracias a su capacidad para generar texto con una estructura similar a la humana y facilitar diversas tareas. No todos los modelos son de código abierto, pero casi todas las grandes empresas tecnológicas tienen una versión que los usuarios pueden descargar y ejecutar.

Ejecutar estos modelos localmente en tu Mac puede ser beneficioso tanto por razones de privacidad como de costo. En este artículo, exploraremos cómo instalar y ejecutar LLM usando OllamaEs una herramienta poderosa para desarrolladores y usuarios novatos, y discutiremos algunas herramientas de interfaz gráfica de usuario que pueden simplificar el proceso para aquellos que prefieren no usar la Terminal macOS.

Tabla de contenido

De esta manera, puede acceder a las últimas plantillas de texto impulsadas por IA de [Google], [Microsoft], [Meta] y otras empresas de IA como [Mistral] y [DeepSeek].

Entendiendo los LLM: ¿Qué significan los parámetros?

Antes de sumergirnos en el proceso de instalación, aclaremos qué significan números como “7B"O"14BAl referirse a los LLM, estos números representan el tamaño del modelo en términos de los maestros (En miles de millones), que son esencialmente “manijas e interruptores” que se ajustan con precisión durante el entrenamiento.

Un mayor número de parámetros permite al modelo capturar patrones y relaciones más complejos en el lenguaje, lo que potencialmente mejora el rendimiento. Sin embargo, es importante destacar que tener más parámetros no siempre garantiza mejores resultados; la calidad de los datos de entrenamiento y los recursos computacionales disponibles para el modelo también juegan un papel importante.

Requisitos del sistema

Necesitarás asegurarte de que tu [Mac] tenga al menos las siguientes especificaciones:

  • macOS 10.15 o posterior (se recomienda macOS 13 o posterior)
  • Al menos 8 GB de RAM (se recomiendan 16 GB o más)
  • 10 GB de espacio de almacenamiento libre (el mínimo requerido para los modelos más pequeños; los modelos más avanzados con un número máximo de parámetros requieren aproximadamente 700 GB)
  • Procesador multinúcleo [Intel] o procesador [Apple Silicon] (preferiblemente M2 o superior)

Instalar Ollama

Ollama Es una herramienta de código abierto que permite ejecutar LLM directamente en el equipo local. Para empezar, siga estos pasos:

  1. Descargar Ollama: Visite el sitio web Ollama Descarga la versión para macOS. También puedes usar [Homebrew] para instalarla ejecutando brew install ollama En tu terminal.
Página de descarga de Ollama
  1. Instalar OllamaSi descargaste el instalador, haz doble clic en él y sigue el asistente de instalación. Si usas Homebrew, ve al paso 4.
En la pantalla de configuración de ollama, haga clic en Siguiente
  1. El siguiente paso para el instalador es simplemente hacer clic en el botón. تثبيتQue le pedirá su contraseña de administrador.
Interfaz gráfica de usuario de Ollama con un botón de instalación
  1. Corre OllamaAbra una ventana de terminal e inicie Ollama como un servicio usando el comando brew services start ollamaEsto hará que Ollama esté disponible en la dirección http://localhost:11434/.
  2. Descargue y ejecute el modeloUtilice el comando ollama pull <model-name> Para descargar una plantilla, entonces el comando ollama run <model-name> Para ejecutarlo. Por ejemplo, para ejecutar un modelo DeepSeek-R1, usa el comando ollama pull deepseek-r1 Seguido de la orden ollama run deepseek-r1.
  3. Para descargar una versión más grande de la plantilla, simplemente añada dos puntos verticales seguidos del tamaño. Por ejemplo, para descargar una plantilla Búsqueda profunda 14BUsarás el comando ollama ejecuta deepseek-r1:14bEn el sitio web de Ollama, puede hacer clic en cualquiera de los formularios y se le mostrarán todos los diferentes comandos para cada versión.
Iniciando llama 3.2 usando ollama
Instalación de Metas llama 32 LLM

Puede encontrar la lista completa de Modelos Ollama Aquí. También puedes usar el segundo comando, como se describió anteriormente. Si aún no está instalado, primero extraerá el formulario y luego lo ejecutará.

instalando llama 3.2 en la terminal

Ahora que ves las tres flechas en ángulo recto (>>>), puedes comenzar a escribir comandos en el formulario.

Ventana de terminal con pregunta a ollama llm

¡Listo! Ahora puedes interactuar localmente con tu LLM en IA sin preocuparte por costos, uso excesivo ni que otros lean lo que escribes. Esto es ideal si tienes temas delicados o personales que te gustaría discutir con un LLM en IA, pero no quieres que una gran empresa tecnológica lea tus pensamientos.

Uso de herramientas de interfaz gráfica de usuario con Ollama

Si bien Ollama es potente y eficiente para desarrolladores, algunos usuarios podrían preferir una interfaz gráfica de usuario (GUI) para interactuar con LLM. Aquí hay algunas herramientas que pueden proporcionar una interfaz gráfica de usuario para Ollama:

      • Interfaz gráfica de usuario de OllamaEsta es una aplicación gratuita y de código abierto para usuarios de macOS, desarrollada con SwiftUI. Ofrece una interfaz atractiva y es una excelente opción para quienes desean acceder a los formularios LLM localmente sin usar una terminal.
      • Interfaz de usuario de OllamaUna interfaz de usuario web sencilla basada en HTML que permite definir formularios e interactuar con ellos directamente en el navegador. También incluye una extensión de Chrome para facilitar el acceso.
      • IA de ChatboxEsta es la opción más sencilla para principiantes y te explicaré cómo usarla a continuación. Ten en cuenta que no necesitas el servicio Chatbox AI, que es una suscripción que ofrecen para acceder a todas las plantillas LLM sin tener que instalar Ollama.

Para utilizar la mejor interfaz de IA de Chatbox, vaya a página de descarga Obtén la versión específica para tu Mac.

Página de inicio de Chatbox AI

A continuación, abra el instalador y ejecute el programa. En la primera pantalla, aparecerá una ventana emergente que le preguntará cómo usar Chatbox AI.

Cuadro de diálogo de uso de clave API de Chatbox AI

Necesitarás hacer clic en el botón Usar mi propia clave API/modelo local.

Elija Ollama al instalar Chatbox AI

A continuación, toque API de Ollama Como proveedor de modelos de inteligencia artificial.

Chatbot con IA para conectarse con la API de Ollama

Chatbox AI debería detectar automáticamente que Ollama se está ejecutando y configurar el host API a su valor predeterminado, que es dirección IP de bucle invertido y número de puerto 11434No necesitas cambiar nada aquí. Dentro del formulario, deberías ver los formularios que instalaste previamente usando la Terminal. En mi caso, es el formulario. llamas 3.2.

Chatbox AI: nueva ventana de chat con LLM

Para regresar a la página de inicio de la aplicación, haga clic en Solo conversa O Nueva conversación Asegúrate de seleccionar la plantilla correcta en la esquina inferior derecha. Puedes cambiarla en cualquier momento, pero te recomiendo crear un chat nuevo para cada plantilla que uses para que puedas ver fácilmente las diferencias.

Herramientas alternativas para ejecutar modelos LLM localmente

Si estás buscando alternativas a Ollama o prefieres una experiencia más fácil de usar desde el principio, entonces Estudio LM Es otra excelente opción. Ofrece una interfaz intuitiva para explorar y usar diversos modelos de IA, lo que permite descargarlos y ejecutarlos fácilmente. LM Studio está disponible para Linux, Mac y Windows y ofrece funciones como la personalización de los parámetros del modelo y el historial de chat. Actualmente es gratuito, por lo que lo recomiendo en lugar del servicio de suscripción Chatbox AI.

Página de inicio de LM Studio para Mac

Conclusión

Ejecutar modelos de lenguaje grandes (LLM) localmente en tu Mac será importante para quienes buscan un mayor control sobre sus aplicaciones de IA y priorizar la privacidad de los datos. Con herramientas como Ollama y las interfaces gráficas mencionadas, que facilitan la integración de los LLM en tu flujo de trabajo, puedes liberar de forma segura un nuevo potencial de productividad y creatividad.

Sin embargo, iniciar una implementación local de LLM requiere comprender los parámetros y cómo afectan el rendimiento de estos modelos en su equipo. La mejor manera de aprender esto es experimentar con diferentes modelos para ver cuáles ofrecen los mejores resultados. Una vez que comprenda este concepto, podrá tomar mejores decisiones sobre qué modelos usar y cómo optimizar su rendimiento para satisfacer sus necesidades específicas.

Los comentarios están cerrados.