Relevante— episodio 224 🧠💡🤖⌨️
Robot nuevo, cambio de paradigma en los LLM x 2, Inteligencia Artificial hasta en la sopa -pero esta es buena data. BCI, videos ¡y más!
¡Me cansé de tanto que tenía para contar en este episodio! Hacía rato no hacía un dump tan pesado de AI.
Pero antes de avanzar, me gustaría respondas esta encuesta sobre tus gustos y preferencias. Queremos hacer un newsletter todavía más interesante.
¡Buena semana, Leyente!
#robots 🤖
Salió Figure 03 (Figure, Aporte de Roberto Scattini): Hasta el momento, el robot multipropósito que más promete. Lo lanzaron hace. Todo apunta a que están pensando la fabricación y shipeo masivo. Sus nuevas features:
Integración de Hardware y Software: Incorpora un suite sensorial y un sistema de manos rediseñados para la interacción con Helix, la IA propietaria de Vision-Lenguage-Action (VLA).
Seguridad y Comodidad Doméstica: Incluye soft goods, carga inalámbrica, sistema de audio mejorado para razonamiento por voz.
Escalabilidad Industrial: Una nueva cadena de suministro para la fabricación de alto volumen resultando en un menor costo de manufactura.
Hay un video grabado desde el PoV de un robot que está poniendo un lavaropa. La velocidad con que lo hace es la misma que la mía un domingo a las 11 de la mañana con resaca.
#AI 💡
¿Cambio de paradigma? Parte 1 (Paper): Lograron construir una AI que funciona como el cerebro humano, es 100 más rapidos que los LLM actuales y utiliza 97% menos de energía. Los LLMs actuales tienen que procesa toda la información a máxima potencia. De un documento de 500 páginas tiene que recordas las 500 todo el tiempo. Todo esto implica mucha energía. ¿Y cómo imita al cerebro humano? El método lo llamaron Spiking Brain. En lugar de mantener activas constantemente las 500 páginas, el modelo se ha centrado exclusivamente en las secciones que han resultado pertinentes para la pregunta. Esto ha permitido saltarse cerca del 70% de todos los cálculos. El cerebro humano no activa constantemente todas sus neuronas; estas permanecen inactivas hasta que ocurre algo relevante, lo cual resulta ser extremadamente eficiente energéticamente. ¿Resultados? (1) Procesó un documento de 8.000 páginas 100 veces más rápido que los modelos LLM convencionales sin pérdidas de precisión. (2) Una reducción de energía del 97% comprobada de manera práctica, ya que corrieron con éxito un modelo de 76 mil millones de parámetros en cientos GPU (de Metax) que no son de la marca Nvidia, es más bien hardware estándar.
¿Cambio de paradigma? Parte 2 (Paper): “Less is More: Recursive Reasoning with Tiny Networks” presenta un Modelo Recursivo Diminuto (TRM - Tiny Recursive Model) de 7 millones de parámetros que tiene mejores resultados que los LLM de billones de parametros. ¿Cómo funciona? El TRM aprende al refinar sus respuestas recursivamente mediante un estado de razonamiento latente y una respuesta actual/ El modelo no requiere chain-of-thought, no fixed-point math, no biological hierarchies. Y así y todo logra un 87% en Sudoku-Extreme y un 85% en Maze-Hard. Sus resultados que superan a Gemini 2.5 Pro y DeepSeek R1, confirmando que la recursión impulsa el razonamiento por sobre la escala de parámetros.

Novedades de Claude, parte 1 (Skills): Una conversación de la gente de Anthropic donde cuentan cómo estan evolucionando sus agentes, cual es su estrategia respecto de agentes con sub-agentes para realizar las tareas, la implementación de skills (ahora te cuento de que va), multi-agentes y workflow agents. ¿De dónde sale todo esto? Todos conceptos que establecen un nuevo parametro de cómo trabajar con LLMs para que hagan realmente tareas de valor, más pulidas, más parecidas a lo que hace un humano, y que cada vez estas cosas sean más end-to-end. El link a la charla es este: https://www.youtube.com/watch?v=uhJJgc-0iTQ
Skills, de Claude (Product Hunt): Claude Skills son como carpetas con instrucciones y recursos que convierten a Claude en un especialista en ciertas tareas específicas. Integra el know-how sobre cómo realizar acciones, desde las directrices de marca hasta el análisis de datos. Se pueden usar en las apps de Claude, el código y la API. Tienen este videito de demo muy bueno. ¿Como funciona? Es un zipfile con archivos .md (markdown) con instrucciones claras sobre qué esa esa skill. Un paso a paso de cómo hacerlo, qué hacer y algunos ejemplos de cómo debe ser usada. Es un híbrido entre tener una tool y una base de prompts pre-escritos.
#UX #UI #chats #AI #agents ⌨️
Tremendos tips (Youtube): Hace semanas que tengo en un tab este video y este finde me pude poner al día. ¿De qué va? Tenemos a Vitaly Friedman, un Sr UX Lead que hace un repaso sobre cómo pensar y crear interfaces de agentes (chats). Trae un montón de ejemplos, menciona a popes como Luke Wroblewski. Principalmente habla sobre el estado del arte de las interfaces de agentes: lo que tiene, lo que falta, lo que está bien hecho… y también cuestiona hacia donde vamos. Una joyita.
#BCI 🧠
Democratizando el acceso a la telepatía (alterego): El producto Alterego, concebido en el MIT, es el primer wearable lo más parecido a la telepatía que permite la comunicación silenciosa a la velocidad del pensamiento. Este sistema incorpora una innovación, denominada Silent Sense, detecta las sutiles señales neuromusculares enviadas por el cerebro al sistema fonatorio antes de la vocalización, sin leer pensamientos. El dispositivo extiende la mente humana al permitir acciones como la escritura y la interacción con la inteligencia artificial sin teclado, lo que facilita una comunicación fluida Human2Machine.
¿Sabías que tenemos una playlist que te acompaña en el día a día con toda la música que fuimos publicando en la historia de relevante?

Videos Increíbles 🤯
Drone que aterriza en el techo de un auto que va a 110 km/h. https://www.youtube.com/watch?v=tTUVr1Ogag0
Dejas de ver y pasas a observar, pasan estas cosas:










"Sacar el monstruo de la película y ver que queda". Me parece una idea genial. Saquemos la "Ingeligencia Artificial General" de la escena y veamos que queda...