Raspberry Pi 4 IA multifunción con chatbot, asistente de voz, visión artificial y automatización inteligente - Tutorial completo 2025
| | |

Crear una IA multifunción local en Raspberry Pi 4: Chatbot, Asistente de Voz, Visión y Automatización (sin Internet)

Crear una IA Raspberry Pi local multifunción es posible sin conexión a internet. Este tutorial paso a paso te enseña cómo montar una IA Raspberry Pi 4 completa con comandos, código y modelos locales: chatbot, reconocimiento de voz, TTS, visión artificial y automatización.

Breve introducción: explica por qué montar IA local importa (privacidad, latencia, coste de APIs) y aclara las limitaciones de la Raspberry Pi 4 frente a un PC/servidor: memoria y CPU limitadas — los modelos deben ser pequeños o altamente cuantizados.

¿Qué puedes esperar de este tutorial?

  • Montar una pila local que haga preguntas/respuestas (chatbot), escuche y hable, procese vídeo/cámara y ejecute acciones (automatización) todo en la misma Pi.
  • Scripts y ejemplos en Python (comunicando con binarios optimizados cuando procede).
  • Opciones para Pi 4 con diferentes RAM (4 GB / 8 GB) y recomendaciones si quieres más rendimiento.

Materiales y requisitos

Hardware

  • Raspberry Pi 4 (recomendado 4 GB mínimo; 8 GB ideal).
  • MicroSD (32 GB mínimo; 64+ GB recomendado) o SSD vía USB 3.0 para mayor rendimiento.
  • Fuente de alimentación estable (5V/3A o equivalente).
  • Micrófono USB o HAT (para asistente de voz).
  • Altavoz USB / jack 3.5mm o HAT DAC.
  • Cámara compatible (Raspberry Pi Camera v2 o webcam USB) para visión.

Software / utilidades

  • Raspberry Pi OS (64-bit recomendado) o Ubuntu Server 64-bit para Pi.
  • Python 3.10+ (viene con la mayoría de imágenes modernas).
  • Compiladores (build-essential, cmake, git).

Modelos (todos offline)

Debes descargarlos y copiar a la Pi antes de usar:

  • Modelo LLM pequeño compatible con llama.cpp (ej. un GGML 4-bit de ~2B–7B dependiendo de la RAM).
  • Modelo de ASR offline: Whisper-quantizado vía whisper.cpp o un modelo VOSK pequeño.
  • Modelo TTS offline: Coqui TTS pequeño o eSpeak NG como opción rápida.
  • Modelo de visión: YOLOv5-tiny / YOLOv8n convertidos a formato ONNX / TensorFlow Lite o un MobileNet-SSD tflite.

Nota: por razones legales y de uso, descarga solo modelos cuya licencia te permita ejecutarlos localmente.

Preparar la Raspberry Pi 4

Flash del sistema

Recomiendo usar Raspberry Pi OS 64-bit o Ubuntu Server 22.04/24.04 64-bit para tener compatibilidad con compilaciones y libs.

  • Flashear la SD con Raspberry Pi Imager o balenaEtcher.
  • Habilitar SSH si lo deseas.

Primeros pasos en la Pi (conéctate por SSH o terminal)

sudo apt update && sudo apt upgrade -y
sudo apt install -y build-essential git cmake wget unzip curl python3-venv python3-pip libatlas-base-dev libblas-dev liblapack-dev
# Opcionales para audio/video
sudo apt install -y ffmpeg v4l-utils alsa-utils avahi-daemon

Configurar swap y ajustes (importante para modelos grandes)

Si tienes 4 GB, aumenta swap temporalmente para compilar o cargar modelos grandes. Cuidado: usar swap intensivamente en microSD reduce su vida útil; si tienes SSD, úsalo.

# crear swapfile de 4-8GB (ejemplo 6GB)
sudo fallocate -l 6G /swapfile
sudo chmod 600 /swapfile
sudo mkswap /swapfile
sudo swapon /swapfile
# para hacerlo persistente (opcional):
# echo '/swapfile none swap sw 0 0' | sudo tee -a /etc/fstab

Crear entorno Python

python3 -m venv ~/ia-pi-env
source ~/ia-pi-env/bin/activate
pip install --upgrade pip
pip install flask fastapi uvicorn numpy scipy opencv-python-headless pillow paho-mqtt
# instalaremos paquetes ML específicos más adelante

Descarga y gestión de modelos (offline)

Clave: descarga los modelos en tu ordenador y muévelos a la Pi (SCP, USB o copiar la tarjeta SD). Si tu Pi no tiene Internet, prepara todo en otro equipo.

LLM (para chatbot)

  • Opción recomendada para Pi4: usar llama.cpp con un modelo GGML pequeño (2B o 3B) cuantizado a 4-bit o 8-bit. En 8GB puedes intentar 3B/4B; en 4GB mejor 2B o 1.3B.
  • Proceso general: descargar checkpoint compatible, convertir a formato ggml (si el proveedor no lo ofrece), copiar a /home/pi/models/llm/.

Reconocimiento de voz (ASR)

  • whisper.cpp permite usar modelos Whisper cuantizados en CPU. Otra opción ligera: VOSK (modelos en español disponibles) para uso en Pi.
  • Coloca los modelos en /home/pi/models/asr/.

Text-to-Speech (TTS)

  • Coqui TTS (modelos pequeños) o eSpeak NG si necesitas algo muy ligero. Copia modelos TTS a /home/pi/models/tts/.

Visión (detección de objetos)

  • Usa modelos optimizados para Edge: YOLOv5-tiny ONNX o TensorFlow Lite MobileNet-SSD. Guarda en /home/pi/models/vision/.

Publicaciones Similares

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *