Skip to content

El objetivo de este repositorio es democratizar el acceso a tecnologías avanzadas de inteligencia artificial, permitiendo a los usuarios ejecutar y experimentar con modelos de lenguaje grandes sin necesidad de recursos en la nube, manejándolos de manera local. ¡Únete a nuestra comunidad y comienza a explorar el fascinante mundo de los LLM locales!

Notifications You must be signed in to change notification settings

binarybrains-upiicsa/LLM-Local

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

3 Commits
 
 

Repository files navigation

LLM-Local: Ejecuta Mistral:7b en tu Computadora

Bienvenido al repositorio LLM-Local, un proyecto diseñado para la comunidad interesada en ejecutar modelos de lenguaje grandes (LLM) de manera local en sus computadoras. Este repositorio proporciona una guía detallada y paso a paso sobre cómo instalar y configurar el modelo Mistral:7b con la ayuda de OLLAMA en tu máquina local.

Conoce más acerca de Mistral, sus LLM's e iniciativas.

image

¿Qué encontrarás en este repositorio?

Sección Descripción
Guías de Instalación Instrucciones para instalar Mistral:7b en tu computadora.
Configuración Inicial Pasos detallados para configurar el entorno necesario y preparar tu terminal para ejecutar el modelo.
Ejemplos de Uso Ejemplos prácticos y comandos para interactuar con Mistral:7b a través de la terminal.
Experimentos Ideas y sugerencias para experimentar con el modelo y sacarle el máximo provecho.

Objetivo

El objetivo de este repositorio es democratizar el acceso a tecnologías avanzadas de inteligencia artificial, permitiendo a los usuarios ejecutar y experimentar con modelos de lenguaje grandes sin necesidad de recursos en la nube. ¡Únete a nuestra comunidad y comienza a explorar el fascinante mundo de los LLM locales!

Guía de Instalación de Mistral:7b con OLLAMA

Esta guía te llevará a través de los pasos necesarios para instalar y ejecutar el modelo Mistral:7b en tu computadora local utilizando OLLAMA.

Paso 1: Instalar OLLAMA

Sigue estos pasos para instalar OLLAMA en tu sistema:

  1. Descarga la última versión de OLLAMA desde el sitio oficial.
  2. Sigue las instrucciones de instalación específicas para tu sistema operativo.

Paso 2: Configurar el Entorno

Configura el entorno necesario para ejecutar Mistral:7b:

  1. Abre una terminal.
  2. Ejecuta el siguiente comando para verificar la instalación:
ollama --version

image

Paso 3: Descargar Mistral:7b

Una vez que el entorno esté configurado, puedes ejecutar Mistral:7b con el siguiente comando: La descarga del modelo puede tardar un poco.

ollama run mistral:7b

image

Paso 4: Verificar la Instalación

Para verificar que Mistral:7b se instaló correctamente y posteriormente ejecutarlo, puedes usar los siguientes comandos para interactuar con el modelo:

ollama list

image

ollama run mistral:7b

Ejemplos de Uso

Aquí tienes algunos ejemplos prácticos de cómo interactuar con Mistral:7b:

  • Generar Código:
ollama run mistral:7b "Genera un código en python donde a traves de un bucle repita la frase "Bienvenidos a Binary Brains, a traves de Mistral 7b""

image

  • Responder Preguntas:
ollama run mistral:7b "¿Cuál es la capital de Francia?"

image

Experimenta y Explora

¡No dudes en experimentar con diferentes comandos y configuraciones para sacarle el máximo provecho a Mistral:7b! Si tienes alguna pregunta o sugerencia, no dudes en abrir un issue en este repositorio.

Contribuciones

Si deseas contribuir a este proyecto, por favor abre un pull request con tus cambios. Estamos encantados de recibir contribuciones de la comunidad.

About

El objetivo de este repositorio es democratizar el acceso a tecnologías avanzadas de inteligencia artificial, permitiendo a los usuarios ejecutar y experimentar con modelos de lenguaje grandes sin necesidad de recursos en la nube, manejándolos de manera local. ¡Únete a nuestra comunidad y comienza a explorar el fascinante mundo de los LLM locales!

Topics

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published