TinyML
Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com Las redes de aprendizaje profundo son cada vez más pequeñas. Mucho más pequeñas. El equipo del Asistente de Google puede detectar palabras con un modelo de sólo 14 kilobytes de tamañ...
Gespeichert in:
Hauptverfasser: | , |
---|---|
Format: | Buch |
Sprache: | spa |
Online-Zugang: | Volltext |
Tags: |
Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
|
Zusammenfassung: | Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com Las redes de aprendizaje profundo son cada vez más pequeñas. Mucho más pequeñas. El equipo del Asistente de Google puede detectar palabras con un modelo de sólo 14 kilobytes de tamaño, lo suficientemente pequeño como para ejecutarse en un microcontrolador. Con este práctico libro entrarás en el campo del TinyML, donde el aprendizaje profundo y los sistemas embebidos se combinan para hacer posibles cosas asombrosas con dispositivos diminutos. Desde principios de 2022, los archivos de código complementarios están disponibles en https://oreil.ly/XuIQ4.
Pete Warden y Daniel Situnayake explican cómo puedes entrenar modelos lo suficientemente pequeños para que quepan en cualquier entorno. Ideal para desarrolladores de software y hardware que quieran construir sistemas embebidos utilizando el aprendizaje automático, esta guía te guía paso a paso en la creación de una serie de proyectos TinyML. No es necesario tener experiencia en aprendizaje automático ni en microcontroladores.
Construye un reconocedor de voz, una cámara que detecta a las personas y una varita mágica que responde a los gestos
Trabaja con Arduino y microcontroladores de muy bajo consumo
Aprende los fundamentos del ML y a entrenar tus propios modelos
Entrena modelos para comprender datos de audio, imágenes y acelerómetros
Explora TensorFlow Lite para microcontroladores, el conjunto de herramientas de Google para TinyML
Depura aplicaciones y protege la privacidad y la seguridad
Optimiza la latencia, el consumo de energía y el tamaño del modelo y del binario |
---|