¿Cómo utilizo la función 'Bring Your Own Model' (BYOM) con Brave Leo? Seguir
La función 'Bring Your Own Model' (BYOM) de Brave Leo te permite conectar tus propios modelos de IA a Leo, ya sea que se estén ejecutando localmente en tu dispositivo o alojados de forma remota. Esto te brinda más control sobre tus interacciones con la IA mientras mantienes el compromiso de Brave con la privacidad.
¿Qué es BYOM?
BYOM es una forma opcional de usar Leo que te permite:
- Ejecutar modelos de IA locales directamente en tu dispositivo, manteniendo tus datos privados
- Conectar a tus propios puntos finales de modelos remotos
- Usar APIs de terceros como el ChatGPT de OpenAI
- Mantener el control total de tus interacciones con la IA
Requisitos
Para utilizar BYOM, necesitarás:
- Brave navegador versión 1.69 o superior
- Plataforma de escritorio (Windows, macOS o Linux)
- Para modelos locales: Un marco de servicio compatible (por ejemplo, Ollama)
- Para modelos remotos: Credenciales API válidas para el servicio elegido
Requisitos de hardware para modelos locales
- Mínimo 8GB de RAM
- Espacio de almacenamiento dependiendo del tamaño del modelo elegido (desde 829MB hasta 40GB)
- Potencia de procesamiento suficiente para la inferencia del modelo
Selección de Modelo
Al ejecutar modelos localmente, considera usar modelos que coincidan con las capacidades de tu hardware y casos de uso. Por ejemplo, los modelos LLama 3.2 están optimizados para tareas de diálogo multilingüe y resumen.
- Variantes más pequeñas ideales para dispositivos con recursos limitados:
- Variante 3B (2.0GB)
- Supera a modelos de tamaño similar en seguimiento de instrucciones, resumen y uso de herramientas
- Bueno para tareas de uso general
- Variante 1B
- Eficiente para dispositivos de borde
- Adecuado para la gestión de información personal y tareas de reescritura
- Variante 3B (2.0GB)
- Soporta oficialmente 8 idiomas: inglés, alemán, francés, italiano, portugués, hindi, español y tailandés
- Entrenado en idiomas adicionales más allá de los oficialmente soportados
Consulta la lista completa de modelos soportados en la lista de modelos de Ollama.
Configuración de BYOM
Uso de Modelos Locales
-
Primero, configura un marco de trabajo de servicio de modelo local. Por ejemplo, para usar Ollama:
- Visita https://ollama.com/download
- Descarga e instala Ollama para tu plataforma
- Abre la terminal y descarga el modelo deseado (por ejemplo,
ollama pull deepseek-r1
)
-
Configura Leo para usar tu modelo local:
- Abre los ajustes de Brave
- Navega a las configuraciones de Leo
- Desplázate hasta la
sección de Modelo propio
Haz clic en Añadir nuevo modelo
- Rellena los campos requeridos:
-
Etiqueta
: Nombre que aparecerá en el menú de selección de modelos -
Nombre de solicitud del modelo
: El identificador del modelo (por ejemplo, "deepseek-r1") -
Punto final del servidor
: Tu punto final local (para Ollama, usahttp://localhost:11434/v1/chat/completions
) -
Clave API
: Dejar en blanco si tu marco de trabajo no lo requiere
-
Utilizando Modelos Remotos
Para conectar Leo a modelos remotos o APIs de terceros (como ChatGPT de OpenAI):
- Obtén tus credenciales API de tu proveedor elegido
- En Brave,
Configuración > Leo > Lleva tu propio modelo
:Haz clic en Añadir nuevo modelo
- Rellena los detalles:
-
Etiqueta
: El nombre que has elegido para el modelo -
Nombre de solicitud del modelo
: El identificador del modelo (por ejemplo, "gpt-4" para OpenAI) -
Punto final del servidor
: El punto final de la API (por ejemplo,https://api.openai.com/v1/chat/completions
para OpenAI) -
Clave API
: Tus credenciales de autentificación
-
Usando Tu Modelo
Una vez configurado:
- Abre Leo en el navegador
- Haz clic en el menú de selección de modelos
- Elige tu modelo personalizado de la lista
- Comienza a chatear con tu modelo configurado
Privacidad y Seguridad
Habilitar modelos alternativos usando la función BYOM te da mayor control sobre tu experiencia y cómo se manejan tus conversaciones, pero las protecciones de privacidad variarán. Los ajustes predeterminados de Brave Leo aseguran que tus datos no sean almacenados, rastreados o utilizados para entrenamiento, y puedes usar el servicio sin crear una cuenta (Consulta nuestra Política de privacidad para más información). Los modelos locales y remotos de terceros tendrán diferentes características de privacidad.
Para Modelos Locales
- Todo el procesamiento ocurre directamente en tu dispositivo
- Las conversaciones, páginas web y avisos nunca salen de tu máquina
- Privacidad completa de los datos para información sensible
Para Modelos Remotos (Aviso Importante de Privacidad)
Al usar BYOM con servicios de terceros como OpenAI u otros puntos finales remotos:
- Tus datos estarán sujetos a las políticas de privacidad y prácticas de datos del tercero
- Las protecciones de privacidad de Brave (como el proxy inverso y las políticas de retención de datos) no aplican
- El tercero puede:
- Almacenar tus conversaciones e insumos
- Usar tus datos para el entrenamiento del modelo
- Compartir o analizar tus datos de acuerdo con sus términos
- Tener diferentes períodos de retención de datos
- Procesar tus datos en varias jurisdicciones
Implementación Técnica:
- Conexión directa entre tu dispositivo y el punto final del modelo
- Las solicitudes omiten por completo los servidores de Brave
- Brave no tiene acceso ni visibilidad sobre el tráfico
- Las credenciales de la API se almacenan de manera segura en tu navegador
- Control de extremo a extremo sobre tus datos e interacciones con el modelo
💡 Importante: Antes de usar un modelo de terceros, revisa su política de privacidad y prácticas de manejo de datos. No envíes información personal sensible, datos de salud, detalles financieros u otra información confidencial a menos que te sientas cómodo con cómo el tercero maneja dichos datos. Antes de usar un modelo de terceros, revisa su política de privacidad y prácticas de manejo de datos. No envíes información personal sensible, datos de salud, detalles financieros u otra información confidencial a menos que te sientas cómodo con cómo el tercero maneja dichos datos.