TL;DR: Inspirado por los conectores MCP de Claude Desktop, construí un servidor Model Context Protocol que permite a Claude controlar Apple Music en macOS. Usé Opus 4 para la planificación, Cursor para la implementación, y el propio MCP para debugging. ¿El resultado? Un paquete npm totalmente funcional que trae control de música natural a las conversaciones con IA.
La Chispa de Inspiración
Mientras exploraba las capacidades de Claude Desktop, descubrí sus conectores MCP (Model Context Protocol)—particularmente la integración con la app de Notas. Un pensamiento me golpeó: ¿por qué no hacer lo mismo para Apple Music? Si Claude puede gestionar mis notas, ¿por qué no puede ser el DJ de mis sesiones de código?
Esto no era solo construir otra herramienta; era crear una forma más natural de interactuar con la música mientras permaneces en el flujo del desarrollo asistido por IA.
La Fase de Planificación: Opus 4 Toma el Mando
Sabía que necesitaba una base sólida, así que recurrí a Claude Desktop con Opus 4 para la planificación inicial. Habiendo estudiado el MCP automatizador de macOS de @steipete y su excelente artículo de mejores prácticas de MCP, tenía el material de referencia perfecto.
La conversación con Opus 4 fue iterativa y exhaustiva. Le alimenté la estructura del proyecto existente y le pedí que diseñara un servidor MCP completo para control de Apple Music. Después de varias rondas de refinamiento, teníamos un plan arquitectónico detallado que incluía:
- Herramientas MCP core para control de reproducción, búsqueda en biblioteca y gestión de playlists
- Automatización AppleScript para integración fluida con la app Music
- Implementación TypeScript con manejo apropiado de errores
- Gestión robusta de cola para control avanzado de música
- Empaquetado NPM para distribución fácil
Implementación: Cursor al Rescate
Con mis tokens de Opus 4 agotados (¡el precio de la exhaustividad!), cambié a Cursor. Pegué el plan completo y le pedí que implementara el servidor music MCP. El traspaso fue fluido—Cursor entendió la arquitectura y comenzó a codificar inmediatamente.
Lo que siguió fue un proceso de desarrollo fascinante. Cursor trabajó metódicamente a través de cada componente, empezando con la estructura core del servidor MCP y el sistema de registro de herramientas. Creó una colección completa de archivos AppleScript para automatización de Apple Music, cada uno manejando aspectos específicos como control de reproducción, búsqueda en biblioteca y gestión de playlists.
El proceso de implementación fue sorprendentemente fluido. Cursor tradujo el plan arquitectónico en código TypeScript limpio, creando manejo robusto de errores y mensajes amigables para el usuario a lo largo del proceso. Construyó funcionalidad de búsqueda inteligente que podía encontrar pistas a través de artistas, álbumes y canciones, mientras también implementaba gestión avanzada de cola que iba más allá de los controles básicos de play/pause.
Uno de los aspectos más impresionantes fue cómo Cursor mantuvo la consistencia a través de todas las diferentes herramientas MCP mientras aseguraba que cada una tuviera su propia responsabilidad enfocada. Los controles de reproducción se sentían naturales, la gestión de biblioteca era intuitiva, y las operaciones de playlist funcionaban exactamente como esperarías de una aplicación de música moderna.
La Aventura del Testing: MCP Debugueándose a Sí Mismo
Aquí es donde las cosas se pusieron realmente interesantes. Instalé el servidor MCP en Cursor y le pedí que probara la implementación. Lo que siguió fue una fascinante demostración de debugging potenciado por IA:
- Problemas de búsqueda: El MCP encontró problemas con la funcionalidad de búsqueda en biblioteca
- Bugs de gestión de cola: Se identificaron problemas al añadir pistas a las colas
- Correcciones en tiempo real: Cursor debugueó y arregló el servidor MCP usando el propio servidor MCP
Ver a un asistente de IA probar, debuguear y arreglar su propia herramienta fue genuinamente alucinante. Buenos tiempos para estar vivo, de verdad.
Publicación y Distribución
El paso final fue hacer la herramienta accesible para todos. Lo empaquetamos como módulo npm y lo publiqué como @pedrocid/music-mcp. Para usarlo con Claude Desktop, puedes añadir esta configuración a tus ajustes MCP:
{
"mcpServers": {
"music-mcp": {
"command": "npx",
"args": ["@pedrocid/music-mcp@latest"]
}
}
}
Una vez configurado, Claude Desktop puede controlar naturalmente tu Apple Music a través de conversación simple, trayendo control de música fluido a tus flujos de trabajo asistidos por IA.
Uso en el Mundo Real
Una vez configurado, el music MCP habilita conversaciones naturales como:
- “Pon mi música y sube el volumen al 50%”
- “¿Qué canción está sonando ahora?”
- “Crea una playlist llamada ‘Viaje por Carretera’ y añade algunas canciones animadas”
- “Añade ‘Bohemian Rhapsody’ para que suene a continuación”
- “Muéstrame qué hay en mi cola de reproducción”
Conclusión: La Alegría de Proyectos Vibe-Coded
Este proyecto fue puro vibe-coding—un proyecto secundario impulsado por la curiosidad y la alegría de construir algo genuinamente útil. Todo el proceso de desarrollo, desde la planificación con Claude Desktop hasta la implementación con Cursor y el auto-debugging del MCP, mostró el increíble potencial del desarrollo asistido por IA.
El servidor music MCP no es solo una herramienta; es un vistazo a un futuro donde los asistentes de IA se integran fluidamente con nuestros entornos digitales, haciendo la tecnología sentirse más natural e intuitiva.
¿Quieres probarlo? Echa un vistazo al repositorio music-mcp o instálalo directamente con npx @pedrocid/music-mcp@latest.
El futuro de la colaboración humano-IA está aquí, y suena bastante bien. 🎵