¡ChatGPT PUEDE VER!

PLUS: Convierte capturas de pantalla en prototipos funcionales con Claude

ADEMÁS: Runway ofrece control cinematográfico 3D para generación de video con IA

Bienvenidos, entusiastas de la IA

En el sexto día de Shipmas, OpenAI le dio ojos a ChatGPT.

La esperada mejora de visión del Modo de Voz ya está aquí, contrarrestando el gran lanzamiento de Gemini de Google y cambiando drásticamente el futuro de las interacciones con la IA. Vamos a verlo…

En el resumen de IA de hoy:

  • El Modo de Voz Avanzado de ChatGPT obtiene capacidades de visión  

  • Claude 3.5 Haiku de Anthropic ya está disponible de forma general  

  • Anthropic analiza el uso de la IA en el mundo real con Clio  

  • 5 nuevas herramientas de IA  

  • Más noticias sobre IA y tecnología

Tiempo de lectura: 4 minutos

OpenAI acaba de lanzar una importante actualización del Modo de Voz Avanzado de ChatGPT en el Día 6 de su evento en vivo, permitiendo a la IA analizar y responder a entradas de video en vivo y compartir pantalla durante las conversaciones.

Los detalles:

  • Los usuarios pueden mostrar videos en vivo o compartir sus pantallas mientras usan el Modo de Voz Avanzado, y ChatGPT puede comprender y discutir el contexto visual en tiempo real.

  • La función se activa mediante un nuevo ícono de video en la app móvil, con la opción de compartir pantalla disponible en un menú separado.

  • Las actualizaciones están disponibles para los suscriptores de ChatGPT Plus, Pro y Team, mientras que los usuarios de Enterprise y Edu tendrán acceso en enero.

  • OpenAI también introdujo una nueva opción de voz festiva, permitiendo a los usuarios conversar con Santa como una adición temporal hasta principios de enero.

Por qué importa: Siete meses después de su demostración inicial, OpenAI finalmente cumple con la promesa de comprensión visual en la IA conversacional, llevando a ChatGPT más allá del texto y la voz hacia una interacción verdaderamente multimodal. Ha sido una gran semana para la visión, con Gemini y el Modo de Voz Avanzado de ChatGPT ganando capacidades extremadamente potentes.

 

Anthropic lanzó discretamente su modelo de IA más rápido, Claude 3.5 Haiku, para todos los usuarios de Claude en plataformas web y móviles, expandiéndose desde su disponibilidad previa solo por API, aunque no se ha hecho un anuncio oficial.

Los detalles:

  • Haiku 3.5 se lanzó en noviembre junto con la función de uso en computadoras de Claude, superando al modelo anterior 3 Opus en pruebas clave.

  • El modelo sobresale en tareas de codificación y procesamiento de datos, ofreciendo velocidad y rendimiento impresionantes con alta precisión.

  • Haiku cuenta con una ventana de contexto de 200K, que es mayor que la de modelos competidores, además de integrarse con Artifacts como espacio de trabajo en tiempo real.

  • El lanzamiento inicial recibió críticas por el precio de la API de Haiku, que se incrementó 4 veces en comparación con 3 Haiku, llegando a $1 por millón de tokens de entrada y $5 por millón de tokens de salida.

  • Los usuarios gratuitos ahora pueden acceder a Haiku con límites diarios de mensajes, mientras que los suscriptores Pro ($20/mes) obtienen un uso expandido y acceso prioritario.

Por qué importa: Ha sido una temporada de lanzamientos relativamente tranquila para Anthropic en comparación con sus rivales. Aunque Haiku impresiona respecto a generaciones anteriores, no parece mover significativamente la aguja en una semana cargada de grandes anuncios en IA, y podría necesitarse el lanzamiento de un modelo 3.5 Opus de gama alta para robarle el protagonismo a Google y OpenAI.

Anthropic presentó Clio, un nuevo sistema que revela patrones sobre cómo las personas utilizan asistentes de IA en todo el mundo, proporcionando información detallada sobre la adopción real de la IA mientras mantiene la privacidad del usuario.

Los detalles:

  • Clio analiza millones de conversaciones resumiéndolas y agrupándolas, eliminando información identificable en un entorno seguro.

  • El sistema organiza estos grupos en jerarquías, permitiendo a los investigadores explorar patrones de uso sin acceder a datos sensibles.

  • El análisis de 1 millón de conversaciones con Claude mostró que los casos de uso en codificación y negocios dominan, con el desarrollo web representando más del 10% de las interacciones.

  • El sistema también descubrió casos de uso inesperados como interpretación de sueños, análisis de partidos de fútbol y asistencia para juegos de rol de mesa.

  • Los patrones de uso varían significativamente según el idioma y la región, destacando una mayor prevalencia de conversaciones sobre problemas económicos y sociales en idiomas no ingleses.

Por qué importa: Los asistentes de IA se están integrando cada vez más en nuestra vida diaria, pero cada persona los utiliza de manera diferente, lo que ofrece una ventana fascinante hacia cómo se usa esta tecnología. Comprender los casos de uso dominantes en el mundo real puede ayudar a mejorar la experiencia del usuario y alinear el desarrollo con las necesidades reales de los usuarios.

NUEVAS HERRAMIENTAS

  • 👁️ Gemini Stream Realtime - Interactúa con Gemini en tiempo real usando texto, voz, video o compartiendo pantalla

  • AI Santa by Tavus - Chatea por video con Santa en tiempo real en más de 30 idiomas.

  • Detasurf - Un navegador, gestor de archivos y asistente de IA en una sola aplicación limpia.

  • Rememberall - Solución de código abierto para dar a los GPTs personalizados memoria persistente entre conversaciones.

  • Clarity AI - Convierte capturas de pantalla de horarios en eventos de calendario y tareas.

     

NOTICIAS EXPRESS

 

Google anunció Android XR, un nuevo sistema operativo para realidad mixta impulsado por Gemini, con Samsung preparada para lanzar el primer visor compatible, cuyo nombre en clave es ‘Project Moohan’, en 2025.

 El jefe de producto de ChatGPT, Nick Turley, habló sobre el futuro de la plataforma en una entrevista con The Verge, afirmando que las interacciones basadas en chat podrían pronto sentirse “tan anticuadas como la mensajería instantánea de los 90”.


Amazon Prime Video lanzó una nueva función beta llamada ‘AI Topics’, que utiliza aprendizaje automático para agrupar y recomendar contenido basado en los intereses y hábitos de visualización de los usuarios.

Character.AI implementó una nueva revisión de seguridad que incluye un modelo de IA separado para usuarios menores de 18 años, junto con próximos controles parentales y un filtrado de contenido mejorado, tras dos demandas que afirman que la plataforma contribuyó a autolesiones.

 Nvidia amplió su contratación en China, sumando más de 1,000 empleados en 2024, incluidos 200 nuevos investigadores en Beijing enfocados en tecnología de conducción autónoma.

 Investigadores de Stanford propusieron una iniciativa global para crear una célula humana virtual impulsada por IA, con el fin de revolucionar la comprensión biológica y el desarrollo de medicamentos mediante modelado computacional.

¡ESO ES TODO!

• Archivo