Crear una IA multifunción local en Raspberry Pi 4: Chatbot, Asistente de Voz, Visión y Automatización (sin Internet)
Crear una IA Raspberry Pi local multifunción es posible sin conexión a internet. Este tutorial paso a paso te enseña cómo montar una IA Raspberry Pi 4 completa con comandos, código y modelos locales: chatbot, reconocimiento de voz, TTS, visión artificial y automatización.
Breve introducción: explica por qué montar IA local importa (privacidad, latencia, coste de APIs) y aclara las limitaciones de la Raspberry Pi 4 frente a un PC/servidor: memoria y CPU limitadas — los modelos deben ser pequeños o altamente cuantizados.
¿Qué puedes esperar de este tutorial?
- Montar una pila local que haga preguntas/respuestas (chatbot), escuche y hable, procese vídeo/cámara y ejecute acciones (automatización) todo en la misma Pi.
- Scripts y ejemplos en Python (comunicando con binarios optimizados cuando procede).
- Opciones para Pi 4 con diferentes RAM (4 GB / 8 GB) y recomendaciones si quieres más rendimiento.
Materiales y requisitos
Hardware
- Raspberry Pi 4 (recomendado 4 GB mínimo; 8 GB ideal).
- MicroSD (32 GB mínimo; 64+ GB recomendado) o SSD vía USB 3.0 para mayor rendimiento.
- Fuente de alimentación estable (5V/3A o equivalente).
- Micrófono USB o HAT (para asistente de voz).
- Altavoz USB / jack 3.5mm o HAT DAC.
- Cámara compatible (Raspberry Pi Camera v2 o webcam USB) para visión.
Software / utilidades
- Raspberry Pi OS (64-bit recomendado) o Ubuntu Server 64-bit para Pi.
- Python 3.10+ (viene con la mayoría de imágenes modernas).
- Compiladores (build-essential, cmake, git).
Modelos (todos offline)
Debes descargarlos y copiar a la Pi antes de usar:
- Modelo LLM pequeño compatible con llama.cpp (ej. un GGML 4-bit de ~2B–7B dependiendo de la RAM).
- Modelo de ASR offline: Whisper-quantizado vía whisper.cpp o un modelo VOSK pequeño.
- Modelo TTS offline: Coqui TTS pequeño o eSpeak NG como opción rápida.
- Modelo de visión: YOLOv5-tiny / YOLOv8n convertidos a formato ONNX / TensorFlow Lite o un MobileNet-SSD tflite.
Nota: por razones legales y de uso, descarga solo modelos cuya licencia te permita ejecutarlos localmente.
Preparar la Raspberry Pi 4
Flash del sistema
Recomiendo usar Raspberry Pi OS 64-bit o Ubuntu Server 22.04/24.04 64-bit para tener compatibilidad con compilaciones y libs.
- Flashear la SD con Raspberry Pi Imager o balenaEtcher.
- Habilitar SSH si lo deseas.
Primeros pasos en la Pi (conéctate por SSH o terminal)
sudo apt update && sudo apt upgrade -y
sudo apt install -y build-essential git cmake wget unzip curl python3-venv python3-pip libatlas-base-dev libblas-dev liblapack-dev
# Opcionales para audio/video
sudo apt install -y ffmpeg v4l-utils alsa-utils avahi-daemonConfigurar swap y ajustes (importante para modelos grandes)
Si tienes 4 GB, aumenta swap temporalmente para compilar o cargar modelos grandes. Cuidado: usar swap intensivamente en microSD reduce su vida útil; si tienes SSD, úsalo.
# crear swapfile de 4-8GB (ejemplo 6GB)
sudo fallocate -l 6G /swapfile
sudo chmod 600 /swapfile
sudo mkswap /swapfile
sudo swapon /swapfile
# para hacerlo persistente (opcional):
# echo '/swapfile none swap sw 0 0' | sudo tee -a /etc/fstabCrear entorno Python
python3 -m venv ~/ia-pi-env
source ~/ia-pi-env/bin/activate
pip install --upgrade pip
pip install flask fastapi uvicorn numpy scipy opencv-python-headless pillow paho-mqtt
# instalaremos paquetes ML específicos más adelanteDescarga y gestión de modelos (offline)
Clave: descarga los modelos en tu ordenador y muévelos a la Pi (SCP, USB o copiar la tarjeta SD). Si tu Pi no tiene Internet, prepara todo en otro equipo.
LLM (para chatbot)
- Opción recomendada para Pi4: usar
llama.cppcon un modelo GGML pequeño (2B o 3B) cuantizado a 4-bit o 8-bit. En 8GB puedes intentar 3B/4B; en 4GB mejor 2B o 1.3B. - Proceso general: descargar checkpoint compatible, convertir a formato
ggml(si el proveedor no lo ofrece), copiar a/home/pi/models/llm/.
Reconocimiento de voz (ASR)
- whisper.cpp permite usar modelos Whisper cuantizados en CPU. Otra opción ligera: VOSK (modelos en español disponibles) para uso en Pi.
- Coloca los modelos en
/home/pi/models/asr/.
Text-to-Speech (TTS)
- Coqui TTS (modelos pequeños) o
eSpeak NGsi necesitas algo muy ligero. Copia modelos TTS a/home/pi/models/tts/.
Visión (detección de objetos)
- Usa modelos optimizados para Edge: YOLOv5-tiny ONNX o TensorFlow Lite MobileNet-SSD. Guarda en
/home/pi/models/vision/.





