ARIMA X: lanzamos nuestra primera artista creada con IA

ARIMA X es nuestra primera artista creada con IA. Un proyecto musical completo, con identidad propia, ya disponible en Spotify, Instagram y TikTok. Descubre su universo y lo que viene en 2026.
ARIMA X: lanzamos nuestra primera artista creada con IA

Hola,

Este es el último episodio de la newsletter de 2025. Con motivo de las vacaciones navideñas, haré una pequeña pausa y no publicaré nuevo contenido hasta el próximo año.

Antes de cerrar el año, quería compartir algo muy especial.
Desde Nimbox360 hemos lanzado oficialmente a ARIMA X, nuestra primera artista creada con inteligencia artificial, y lo hemos hecho por todo lo alto.

ARIMA X no es solo un experimento: es un proyecto artístico completo, con identidad visual propia, sonido definido y una narrativa cuidada. Ya podéis encontrarla en Spotify, así como en las canciones de Instagram y TikTok, donde sus temas empiezan a circular y a formar parte del día a día de la gente.

Su web oficial, 👉 https://arimaxmusic.com/, es el punto central del proyecto: ahí se puede descubrir su universo artístico, su estética cinematográfica y todo lo que rodea a esta nueva etapa en la música generada con IA. Es una web pensada para escuchar, explorar y entender quién es ARIMA X y hacia dónde va.

A continuación os dejo espacio para escuchar algunos de sus temas en Spotify 👇
(aquí añadiré las canciones)

🎧 ARIMA X en Spotify


🎧 Si esta música te acompaña, ya es tuya
Escúchanos en Spotify, añade los temas que te vibren a tu playlist
y cuéntanos en comentarios qué te hizo sentir.

Tu feedback nos ayuda a seguir creando ❤️

https://open.spotify.com/intl-es/artist/58RDF7BXH0mgw6lk8IYTND


Este lanzamiento marca un hito para nosotros y es solo el comienzo. En 2026 habrá más música, más historias y más proyectos que mezclan creatividad, tecnología e inteligencia artificial.

Gracias por estar ahí durante todo este año.
Nos leemos muy pronto.


🧠 G33K TEAM de la Semana

🎙️ Último episodio del año: Ciberseguridad Casera y la Maldición de los NVMe

En este episodio especial de fin de año (grabado un 19 de diciembre), Oriol Rius junto a Néstor López, Aitor Roma y Tete. Lo que empieza como una charla sobre la gastronomía italiana y los tipos de pizza, se convierte rápidamente en una masterclass de domótica defensiva tras un intento de robo real en el vecindario de Oriol. Además, Néstor trae una historia de terror de hardware y un debate sobre la ética de la IA en el arte.

🍕 Debate 1: Crónica de un robo y la seguridad vecinal

El episodio arranca con una anécdota tensa: un intento de robo en la casa de unos vecinos de Oriol.

  • El suceso: Los ladrones intentaron entrar reventando una ventana con un taladro, pero huyeron al causar pánico (aunque la alarma sonó, nadie la oyó debido a inhibidores o retardos en la señal).
  • La reacción: Lo más sorprendente fue la respuesta humana. Gracias a un grupo de WhatsApp vecinal ("SOS"), en menos de 3 minutos había 40 personas y 8 coches bloqueando la salida, demostrando que la mejor seguridad a veces es la comunidad.
  • La lección: Los sistemas de alarma comerciales a veces fallan o tienen retardos críticos (20 minutos en notificar en este caso), lo que llevó a Oriol a reevaluar y endurecer su propia seguridad.

🏠 Debate 2: Hacking Domótico con Home Assistant y SDR

A raíz del incidente, Oriol explica cómo ha blindado su casa utilizando Home Assistant y tecnología de radiofrecuencia para no depender de nubes de terceros ni sufrir retardos.

  • La tecnología (RTL_433): Oriol utiliza un dongle USB SDR (Software Defined Radio) para "esnifar" las frecuencias de 433MHz. Esto le permite leer directamente las señales de sensores de puertas y movimiento baratos (chinos) de manera local e instantánea, integrándolos en Home Assistant vía MQTT.
  • La lógica (Node-RED): Ha programado flujos en Node-RED donde, si la alarma está armada y un sensor detecta algo, se activa una secuencia: disparar sirenas (conectadas a enchufes Shelly), enviar notificaciones visuales a su reloj LaMetric y mandar alertas al móvil.
  • Notificaciones críticas (WAHA): Para asegurarse de que los avisos llegan, utiliza WAHA (WhatsApp HTTP API), un contenedor de Docker que le permite enviar mensajes de WhatsApp automatizados tanto a su familia como al grupo de vecinos, saltándose las limitaciones de las apps tradicionales.

💻 Debate 3: La tasa de fallo de los Samsung NVMe

Néstor toma la palabra para contar su calvario personal con su servidor casero, que sufría reinicios aleatorios constantes.

  • El culpable: Tras meses de diagnósticos, descubrió que el problema eran los discos duros. Concretamente, discos Samsung NVMe (modelos 960 a 990 Pro).
  • La estadística: De 6 discos que tiene, 5 han muerto o presentan errores críticos. Néstor lanza una advertencia sobre la fiabilidad de estos modelos específicos frente a otras marcas como Kingston, que le han funcionado mejor en las mismas condiciones.

🎨 Debate 4: IA Generativa y "Roba como un artista"

Para cerrar, Néstor comenta una polémica reciente relacionada con Larian Studios (creadores de Baldur's Gate 3), cuyo directivo mencionó el uso de IA generativa para concept art, desatando la ira de la comunidad artística.

  • La reflexión: Se debate sobre la herramienta vs. el reemplazo. Néstor recomienda el libro "Roba como un artista" de Austin Kleon, argumentando que la inspiración siempre ha bebido de fuentes existentes, y que la IA está cambiando el flujo de trabajo técnico y creativo, queramos o no.

🔗 Enlaces y Referencias mencionadas

  • 🛠️ Home Assistant: El cerebro open-source de la domótica de Oriol.
  • 📡 RTL_433 Project: La librería clave para decodificar señales de radio de sensores genéricos.
  • 💬 WAHA (WhatsApp HTTP API): Herramienta para enviar whatsapps vía API (usada para las alertas de seguridad).
  • 🚨 Shelly Plugs: Enchufes inteligentes usados para activar las sirenas físicas.
  • LaMetric Time: Reloj inteligente programable para notificaciones visuales.
  • 📚 "Roba como un artista" (Austin Kleon): Libro recomendado por Néstor sobre la creatividad y la influencia.
  • 🔧 Tasmota / ESPHome: Firmwares alternativos mencionados para liberar dispositivos domóticos del control de la nube del fabricante.

ℍ𝕠𝕣𝕚𝕫𝕠𝕟𝕥𝕖 𝔸𝕣𝕥𝕚𝕗𝕚𝕔𝕚𝕒𝕝

Te presentamos "Horizonte Artificial", la nueva y flamante sección de nuestra newsletter dedicada exclusivamente a la Inteligencia Artificial. Pero no esperes el contenido convencional que inunda TikTok o YouTube. Aquí, nos sumergiremos en el fascinante mundo del OpenSource, explorando proyectos libres que puedes desplegar en tu propio servidor. Y para guiarnos en esta travesía, contamos con la experticia de Jesús Pacheco, mejor conocido en nuestra comunidad HiveAgile como "Pachecodes". Prepárate para una perspectiva fresca y auténtica sobre la IA. ¡Bienvenidos al horizonte!

FunctionGemma: por qué el modelo más pequeño de Google es una revolución gigante para la IA en el borde

Olvidate de los modelos masivos en la nube. La próxima gran frontera de la Inteligencia Artificial cabe en tu bolsillo, consume apenas 300 MB de RAM y está lista para actuar.

En el mundo de la IA solemos asumir que más grande es mejor: modelos con cientos de miles de millones de parámetros ejecutándose en data centers remotos. Sin embargo, Google acaba de dar un golpe de timón con el lanzamiento de FunctionGemma.

No es “otro LLM más”. Es una versión especializada de Gemma 2 (270M) diseñada con un objetivo muy concreto: llevar el function calling a dispositivos Edge como tu smartphone, una Raspberry Pi o sistemas IoT.

Acá te cuento por qué este pequeño gigante está enamorando a los desarrolladores —y qué significa para el futuro de las apps inteligentes.


¿Qué es exactamente FunctionGemma?

FunctionGemma es un modelo compacto de 270 millones de parámetros. Para ponerlo en perspectiva: es lo suficientemente liviano como para ejecutarse 100 % offline en un móvil, ocupando una fracción mínima de memoria.

Pero su verdadera diferencia no es el tamaño, sino cómo fue entrenado.

A diferencia de un chatbot genérico, FunctionGemma fue fine-tuned específicamente para traducir lenguaje natural en llamadas de función estructuradas.

El salto es brutal:

  • Gemma base: 58 % de precisión en function calling
  • FunctionGemma: 85 % de precisión

Eso lo convierte en una pieza clave para agentes de IA fiables, no solo conversacionales.


De chatbot pasivo a agente activo

La magia del modelo está en actuar como puente entre humanos y software.

Vos decís:

“Programá una reunión de equipo mañana a las 16”.

FunctionGemma traduce:

create_calendar_event(
  title="Team Meeting",
  time="16:00",
  date="mañana"
)

La app ejecuta.
FunctionGemma responde:

“Listo. La reunión fue creada.”

Este flujo convierte a FunctionGemma en el agente con function calling nativo más pequeño y eficiente disponible hoy.


4 razones por las que esto cambia el juego

1. Local-first: privacidad y velocidad

Al ejecutarse on-device, los datos no viajan a la nube.
Latencia casi nula. Ideal para domótica, IoT o control por voz donde la respuesta inmediata importa.


2. Diseñado para ser moldeado

No está pensado para prompting creativo.
Está pensado para fine-tuning con tus propias funciones, logrando un comportamiento determinista y predecible, algo crítico en producción.


3. Sistemas híbridos inteligentes

Usalo como gatekeeper:

  • Tareas locales y rápidas → FunctionGemma
  • Consultas complejas → modelos grandes como Gemini o GPT-4

Resultado: menos costos, menos consumo, mejor UX.


4. IA directamente en el navegador

Es tan liviano que puede correr en el browser usando Transformers.js.

Esto habilita:

  • Juegos controlados por voz
  • Herramientas web sin backend de IA
  • Apps privadas y offline-first

Ecosistema y cómo probarlo

Google no soltó solo los pesos del modelo. Construyó todo un stack alrededor:

  • LiteRT: optimización para Android e iOS
  • Compatibilidad con:
    • llama.cpp
    • Ollama
    • NVIDIA NeMo
    • Hugging Face
  • Google AI Edge Gallery: app demo con casos reales (contactos, juegos, control por voz)

El modelo ya está disponible también en Kaggle.


Conclusión

FunctionGemma nos recuerda algo clave:
el futuro de la IA no es solo un cerebro gigante en la nube.

El futuro es híbrido:

  • Modelos pequeños
  • Privados
  • Rápidos
  • Viviendo en nuestros dispositivos

Con apenas 270M de parámetros, Google demostró que se puede crear un agente inteligente real, capaz de controlar el mundo digital sin drenar batería, privacidad ni recursos.

La revolución de la IA en el borde no está llegando.
Ya empezó.

👉 Docs oficiales: https://ai.google.dev/gemma/docs/functiongemma

Si este artículo te sirvió, compartilo con tu equipo. El próximo asistente inteligente probablemente corra… en local. 🚀

🌟 TopGit - Resumen Semanal (2025-12-20)

📚 Repositorios Destacados de la Semana

Los siguientes repositorios han sido seleccionados por su relevancia, calidad y métricas de GitHub:

🔧 🚀 Holochain

Descripción: Holochain es un marco de trabajo de código abierto para desarrollar aplicaciones peer-to-peer con altos niveles de seguridad, fiabilidad y rendimiento.

Características: Holochain permite crear aplicaciones descentralizadas (hApps), integradas con principios de blockchain sin necesidad de minería. Utiliza Rust para garantizar un rendimiento óptimo y fiabilidad.

Beneficios: Los usuarios disfrutan de una estructura flexible que fomenta la colaboración y reduce la dependencia de servidores centralizados. Es ideal para aplicaciones donde se necesita un alto control y privacidad de datos.

Casos de uso: Desde aplicaciones para redes sociales descentralizadas hasta sistemas de gestión de identidad y más.

📊 Estadísticas de GitHub:

  • ⭐ 1,326 estrellas
  • 🔄 179 forks
  • 👀 70 observadores
  • 📝 265 issues abiertos
  • 🔤 Principal lenguaje: Rust

🔧 📊 ETL de Supabase

ETL es un marco en Rust creado por Supabase para construir aplicaciones de replicación de datos en tiempo real y de alto rendimiento sobre Postgres. Permite la captura de datos en cambios (CDC) y proporciona una API limpia y nativa de Rust para transmitir cambios a destinos personalizados.

📊 Estadísticas de GitHub:

  • ⭐ 2,115 estrellas
  • 🔄 133 forks
  • 👀 30 observadores
  • 📝 37 issues abiertos
  • 🔤 Principal lenguaje: Rust

🔧 🔄 Linutil: Toolbox para Linux

Linutil es una caja de herramientas agnóstica a las distribuciones, diseñada para simplificar tareas cotidianas en Linux. Esta herramienta ayuda a configurar aplicaciones y optimizar sistemas para casos de uso específicos. Además, se desarrolla activamente en Rust, asegurando rendimiento y fiabilidad.

📊 Estadísticas de GitHub:

  • ⭐ 4,627 estrellas
  • 🔄 359 forks
  • 👀 52 observadores
  • 📝 31 issues abiertos
  • 🔤 Principal lenguaje: Shell

🔧 🤖 Asistente de Listados de Marketplace

El Asistente de Listados es una aplicación de escritorio diseñada para ayudar a los vendedores a crear listados de productos en línea. Automatiza el reemplazo de fondos, organiza medidas, genera hashtags y formatea descripciones para mejorar la visibilidad. Originalmente desarrollado para vendedores de Vinted, es flexible para cualquier plataforma de venta en línea.

📊 Estadísticas de GitHub:

  • ⭐ 8 estrellas
  • 🔄 1 forks
  • 👀 1 observadores
  • 📝 0 issues abiertos
  • 🔤 Principal lenguaje: Python

🔧 🤖 Eigent: La Primera Fuerza Laboral Multiagente

Eigent es la primera aplicación de escritorio de Fuerza Laboral Multiagente del mundo, que potencia la productividad al permitirte construir, gestionar e implementar una fuerza laboral AI personalizada para convertir tus flujos de trabajo más complejos en tareas automatizadas. Basado en el aclamado proyecto de código abierto CAMEL-AI, nuestro sistema introduce una Fuerza Laboral Multiagente que incrementa la productividad a través de la ejecución paralela, la personalización y la protección de la privacidad. Esta herramienta es completamente de código abierto y ofrece integración de características empresariales como control de acceso, implementación local y soporte de modelos personalizados.

📊 Estadísticas de GitHub:

  • ⭐ 2,601 estrellas
  • 🔄 376 forks
  • 👀 23 observadores
  • 📝 82 issues abiertos
  • 🔤 Principal lenguaje: TypeScript

🔧 🌐 Lista Curada de Servidores MCP

Esta lista presenta un conjunto cuidadosamente seleccionado de servidores que utilizan el Protocolo de Contexto de Modelo (MCP). Cada servidor tiene la capacidad de interactuar con herramientas y aplicaciones, facilitando el desarrollo y la automatización de tareas. Este recurso es esencial para desarrolladores y entusiastas que buscan integrar capacidades avanzadas de lenguaje y automatización en sus proyectos.

📊 Estadísticas de GitHub:

  • ⭐ 3,135 estrellas
  • 🔄 641 forks
  • 👀 36 observadores
  • 📝 3 issues abiertos
  • 🔤 Principal lenguaje: No especificado

🔧 🤖 Modelo OCR Chandra

Chandra es un modelo OCR de alta precisión que convierte imágenes y PDFs en HTML/Markdown/JSON estructurado, con información de diseño preservada. Su objetivo es facilitar la digitalización de documentos complejos como formularios, tablas y escritura a mano.

📊 Estadísticas de GitHub:

  • ⭐ 3,817 estrellas
  • 🔄 430 forks
  • 👀 31 observadores
  • 📝 30 issues abiertos
  • 🔤 Principal lenguaje: Python

🔧 🤖 Chatbot UI

Chatbot UI es una aplicación de chat de inteligencia artificial de código abierto que permite integrar cualquier modelo de AI. Es ideal para desarrolladores y equipos que buscan implementar chatbots personalizados de manera rápida y eficiente. Además, ofrece una interfaz amigable que facilita la interacción con diferentes modelos de AI.

📊 Estadísticas de GitHub:

  • ⭐ 32,835 estrellas
  • 🔄 9,458 forks
  • 👀 269 observadores
  • 📝 232 issues abiertos
  • 🔤 Principal lenguaje: TypeScript

🔧 🧠 QueryWeaver

QueryWeaver es una herramienta de código abierto que convierte preguntas en inglés simple a SQL usando una comprensión de esquema impulsada por gráficos. Permite interactuar con bases de datos a través de preguntas en lenguaje natural y devuelve las consultas SQL y los resultados obtenidos.

📊 Estadísticas de GitHub:

  • ⭐ 281 estrellas
  • 🔄 27 forks
  • 👀 3 observadores
  • 📝 52 issues abiertos
  • 🔤 Principal lenguaje: TypeScript

🔧 💻 Unidad USB Todo en Uno

La Unidad USB Todo en Uno es una colección curada de herramientas de diagnóstico y rescate, instaladores de sistemas operativos y aplicaciones. Además, ofrece una guía paso a paso para preparar y utilizar la unidad USB, permitiendo crear un "cuchillo suizo" portátil y actualizable con utilidades esenciales.

📊 Estadísticas de GitHub:

  • ⭐ 2,267 estrellas
  • 🔄 122 forks
  • 👀 18 observadores
  • 📝 4 issues abiertos
  • 🔤 Principal lenguaje: No especificado

📊 Análisis de Distribución por Categorías

La siguiente gráfica muestra la distribución de proyectos por categoría en TopGit:

Distribución de Categorías

📈 Estadísticas Semanales

🏆 Top 3 Categorías

Top 3 Categorías

📊 Distribución Detallada

🤖 IA & Machine Learning █████         29%  (4 repos)
⚡ Productivity       █████         29%  (4 repos)
🌐 Web Development    ██            14%  (2 repos)
🔧 Dev                ██            14%  (2 repos)

🚀 Tendencias Destacadas

📈 Métricas Clave

  • Repositorios Totales: 14
  • Promedio Diario: 2.0 repos/día
  • Categorías Activas: 6

🎯 Categorías Dominantes

  1. IA & Machine Learning
    • 4 repositorios
    • 28.6% del total
  2. Productivity
    • 4 repositorios
    • 28.6% del total
  3. Web Development
    • 2 repositorios
    • 14.3% del total

💡 Análisis de Tendencias

Basándome en estas tendencias, la comunidad de GitHub actualmente parece concentrarse en tres áreas principales: optimización y automatización de flujos de trabajo, desarrollo de aplicaciones descentralizadas y la creación de herramientas para facilitar las tareas cotidianas.

Las herramientas de optimización y automatización de flujos de trabajo como el ETL de Supabase, el Asistente de Listados de Marketplace, el modelo OCR Chandra y QueryWeaver son evidencia de un fuerte enfoque en la mejora de la eficiencia y la automatización. Esto refleja una demanda creciente de soluciones que puedan aliviar las tareas repetitivas y manuales, permitiendo a más personas centrarse en actividades que generen más valor.

El interés en desarrollar aplicaciones descentralizadas se refleja en el proyecto Holochain. Destaca porque ofrece una alternativa a la arquitectura descentralizada tradicional, permitiendo a los desarrolladores integrar los principios de blockchain sin la necesidad de minería. Esto tiene el potencial de abrir nuevas posibilidades para aplicaciones donde se necesita un alto control y privacidad de datos.

Por último, la creación de herramientas destinadas a facilitar tareas cotidianas, como Linutil y la Unidad USB Todo en Uno, demuestra una continúa demanda de soluciones que faciliten y optimicen las tareas diarias, tanto para los desarrolladores como para los usuarios finales.

En general, estos repositorios demuestran el constante flujo de innovación en GitHub y el deseo de la comunidad de compartir y colaborar en soluciones que aborden problemas actuales de manera más eficaz y eficiente.


🌵
Descubre, Participa, Comunícate
- 🐥 Únete a nuestra vibrante comunidad en Twitter y mantente en la vanguardia: descubre herramientas innovadoras, participa en nuestro emocionante #BuildInPublic y mucho más.
- 💌 ¿Tienes algo que compartir? No dudes en contactarnos. Tu voz es importante para nosotros y nos comprometemos a responder a la mayor brevedad posible.¡házmelo saber!

Rubén Martínez cerró su laptop con frustración. Era su tercer día intentando acceder a Lovable desde Caracas y el mensaje era siempre el mismo: "Service unavailable in your region."

Dos meses atrás, durante una conferencia en Ciudad de México, había descubierto la magia de los AI app builders. Un colega le mostró cómo crear una landing page completa en minutos solo escribiendo prompts. Rubén quedó fascinado. Creó una cuenta, hizo algunas pruebas, incluso empezó un proyecto para un cliente local.

Pero entonces volvió a Venezuela.

Y la magia se evaporó.

No era solo Lovable. Claude bloqueado. ChatGPT limitado. Midjourney inaccesible. La lista crecía cada semana. Vivir en un país sancionado significaba que la revolución de la IA estaba pasando... al otro lado del muro.

"Es como si el futuro tuviera visa", pensó mientras miraba el proyecto a medio terminar que había dejado en la plataforma de Lovable. Código que existía pero no podía tocar. Ideas que había tenido pero no podía ejecutar.

La realidad sin filtros

Rubén trabajaba desde un pequeño apartamento en Los Palos Grandes. Su setup era modesto: una laptop HP de 2019, internet que funcionaba por las mañanas si tenías suerte, y una determinación de hierro para seguir siendo relevante en un mercado global que lo ignoraba geográficamente.

Tenía tres clientes: una panadería artesanal en Caracas que necesitaba e-commerce, un médico que quería sistema de citas online, y una startup de delivery que buscaba competir con las grandes plataformas.

Presupuestos pequeños. Expectativas grandes. Y él, atrapado entre la imposibilidad técnica y la necesidad económica.

Las VPNs ayudaban, cuando funcionaban. Pero las buenas eran caras (en dólares que no tenía), y las gratuitas eran tan lentas que usar una IA por API se volvía una tortura de latencia y timeouts.

"Tiene que haber otra forma", se repetía cada noche.

El descubrimiento accidental

La respuesta llegó un martes por la tarde, en un hilo de Twitter de un desarrollador argentino que se quejaba de los mismos problemas. Alguien respondió con un link: "Prueba esto. Open source. Corre en local. No necesitas que nadie te dé permiso."

El repositorio en GitHub tenía más de 18,000 estrellas. Se llamaba Dyad.

Rubén leyó el README dos veces, sin creérselo del todo. Un AI app builder que corría completamente en tu máquina. Sin servidores externos. Sin restricciones geográficas. Sin suscripciones mensuales.

"Descarga el instalador para tu sistema."

Lo hizo. El archivo era de 200MB. Con su internet, tardó 40 minutos. Los 40 minutos más largos de su semana.

El primer respiro de libertad

Cuando la aplicación se abrió por primera vez, Rubén sintió algo que no había sentido en meses trabajando con IA: control.

No había login. No había "verifica tu ubicación". No había "este servicio no está disponible en tu país".

Solo una pregunta simple: "¿Qué modelo quieres usar?"

La lista era abrumadora. Pero lo que realmente llamó su atención fue una opción que nunca había visto en Lovable: Local Models.

Ollama. LM Studio. Modelos que corrían en su propia máquina.

"Espera", pensó. "¿Esto significa que ni siquiera necesito internet estable?"

Exacto.

La prueba de concepto

¡Únete a NoCode OpenSource!

Únete a nuestra comunidad NoCode OpenSource y accede a noticias clave. Explora The {AI}rtist para obtener contenido exclusivo y accionable sobre IA directamente en tu bandeja de entrada.

Newsletter NoCode OpenSource - Lo último en NoCode

¡Genial! Te has inscrito con éxito.

Bienvenido de nuevo! Has iniciado sesión correctamente.

Te has suscrito correctamente a Newsletter NoCode OpenSource - Lo último en NoCode.

¡Éxito! Comprueba en tu correo electrónico el enlace mágico para iniciar sesión.

Éxito! Su información de facturación ha sido actualizada.

Su facturación no se actualizó.

Update cookies preferences