LinuxParty
NUESTRO SITIO necesita la publicidad para costear hosting y el dominio. Por favor considera deshabilitar tu AdBlock en nuestro sitio. También puedes hacernos una donación entrando en linuxparty.es, en la columna de la derecha.
¿Qué es Ollama?
Ollama es una plataforma de código abierto que permite ejecutar modelos de lenguaje de gran tamaño (LLMs) directamente en tu ordenador, sin necesidad de conexión a la nube. Esto proporciona mayor privacidad, control y rendimiento, ya que todo el procesamiento se realiza localmente. Diseñada especialmente para macOS, Ollama facilita la interacción con modelos de IA avanzados mediante una interfaz de línea de comandos sencilla y eficiente. (John W. Little)
Requisitos Previos
Antes de instalar Ollama en tu Mac, asegúrate de cumplir con los siguientes requisitos:
- Sistema Operativo: macOS 11 Big Sur o superior.
- Hardware: Mac con procesador Apple Silicon (M1, M2, M3 o M4) para un rendimiento óptimo.
- Conexión a Internet: necesaria para descargar los modelos inicialmente.
- Permisos de Administrador: para completar la instalación.(GPT for Work
Instalación de Ollama en macOS
Opción 1: Instalación Manual
- Descargar Ollama: Visita la página oficial de descargas de Ollama y descarga el instalador para macOS.
- Instalar la Aplicación: Abre el archivo descargado y sigue las instrucciones del asistente de instalación.
- Mover a Aplicaciones: Arrastra
Ollama.app
a la carpeta de Aplicaciones. - Abrir Ollama: Ve a la carpeta de Aplicaciones y haz doble clic en
Ollama.app
. Si aparece una advertencia de seguridad, selecciona "Abrir" para continuar.
Opción 2: Instalación mediante Homebrew
Si prefieres utilizar Homebrew, sigue estos pasos:
-
Instalar Ollama: Abre la Terminal y ejecuta:
brew install ollama
2. Iniciar el Servicio: Para ejecutar Ollama como un servicio en segundo plano:(DEV Community)
brew services start ollama
3. Verificar la Instalación: Abre tu navegador y visita http://localhost:11434/
. Deberías ver el mensaje "Ollama is running". (DEV Community)
Ejecutar un Modelo de Lenguaje con Ollama
Una vez instalado Ollama, puedes comenzar a utilizar modelos de lenguaje avanzados:
- Abrir la Terminal: Inicia la aplicación Terminal en tu Mac.
- Ejecutar un Modelo: Por ejemplo, para ejecutar el modelo Llama 3:(Metric Coders)
ollama run llama3
La primera vez que ejecutes este comando, Ollama descargará el modelo seleccionado.
3. Interactuar con el Modelo: Una vez cargado, podrás interactuar con el modelo directamente desde la Terminal.
Gestión de Modelos en Ollama
Ollama ofrece comandos para gestionar fácilmente los modelos instalados:
-
Listar Modelos Instalados:
ollama list
-
Eliminar un Modelo:
ollama rm <nombre_del_modelo>
Reemplaza <nombre_del_modelo>
por el nombre del modelo que deseas eliminar.(Medium)
Interfaz Gráfica para Ollama: AI Deck
Para aquellos que prefieren una interfaz gráfica, AI Deck es una aplicación nativa para macOS que facilita la gestión de modelos en Ollama. Con AI Deck, puedes:(elephas.app)
- Explorar y descargar modelos disponibles.
- Visualizar estadísticas y detalles de cada modelo.
- Iniciar o detener modelos con un solo clic.
- Organizar y filtrar modelos según tus necesidades. (elephas.app)
Aplicaciones Complementarias: OllamaTalk
OllamaTalk es una aplicación de código abierto que permite interactuar con modelos de lenguaje de forma local y privada. Compatible con múltiples plataformas, incluyendo macOS, ofrece una experiencia de chat con IA sin depender de servicios en la nube.
Ollama representa una solución poderosa y accesible para ejecutar modelos de lenguaje avanzados directamente en tu Mac. Al operar localmente, garantiza mayor privacidad, control y eficiencia. Con opciones tanto de línea de comandos como interfaces gráficas, se adapta a las preferencias de diversos usuarios. Explora las capacidades de Ollama y lleva la inteligencia artificial directamente a tu escritorio.(DEV Community)

-
Seguridad
- Mis 5 Comandos Esenciales de Linux para la Resolución de Problemas y Cómo los Utilizo
- El firewall IPFire para Linux obtiene soporte para criptografía post-cuántica en túneles IPsec
- China presenta un potente cortador de cables de aguas profundas que podría restablecer el orden mundial
- ¿Qué piensan los desarrolladores del kernel de Linux sobre Rust?
- Cómo crear puntos de restauración del sistema en Linux con Timeshift y por qué debería hacerlo
- El Sistema de Detección de Intrusos: Snort. ( Windows y Linux )
- Snort para Windows, detección de Intrusos y seguridad.
- Drones, vigilancia y reconocimiento facial: una startup llamada 'Sauron' presenta un sistema de seguridad para el hogar de estilo militar
- Conexión Segura NFS en Linux, Tunelizar NFS sobre SSH y Configuración de NFS sobre SSH para Mayor Seguridad
- ¿Olvidó su contraseña? Cinco razones por las que necesita un administrador de contraseñas
- Cómo limitar las conexiones SSH (puerto TCP 22) con ufw en Ubuntu Linux
- Utilizar ssh sin contraseña con ssh-keygen y ssh-copy-id
- Millones de teléfonos móviles podrían ser vulnerables a la vigilancia del gobierno chino
- Cómo limitar las conexiones SSH a la red local en Linux
- Los televisores inteligentes son como un «caballo de Troya digital» en los hogares