- LA SEÑAL
- Posts
- El modelo o1 de OpenAI sale en modo PRO
El modelo o1 de OpenAI sale en modo PRO
ADEMÁS: Gran lanzamiento de Copilot Vision de Microsoft
Bienvenidos, entusiastas de la IA
OpenAI acaba de lanzar el primer día de su serie de sorpresas navideñas, comenzando con fuerza gracias a una versión mejorada del modelo o1 junto con una versión Pro de élite (pero costosa).
¿Serán el razonamiento más potente y el acceso ilimitado suficientes para justificar un alto precio de 200 dólares al mes? Vamos a analizarlo…
En el resumen de IA de hoy:
Tiempo de lectura: 4 minutos
OpenAI acaba de lanzar su modelo o1 completo, saliendo de su fase de vista previa, durante el primer día del evento "12 días de OpenAI", junto con un nuevo nivel de suscripción ChatGPT Pro a $200 al mes que incluye acceso mejorado a las funciones más potentes del modelo de razonamiento.
Detalles:
El modelo o1 completo ahora maneja análisis de imágenes y genera respuestas más rápidas y precisas que en su versión preliminar, con un 34% menos de errores en consultas complejas.
El nuevo plan Pro de $200/mes incluye acceso ilimitado a o1, GPT-4o, voz avanzada y futuras funciones que requieran gran capacidad de procesamiento.
Los suscriptores Pro también obtienen acceso exclusivo al "modo Pro de o1", que cuenta con una ventana de contexto de 128k y un razonamiento más sólido para problemas difíciles.
Durante una transmisión en vivo, OpenAI mostró cómo el modo Pro de o1 resolvía problemas complejos de termodinámica y química tras unos minutos de razonamiento.
Curiosamente, el modelo completo de o1 parece rendir peor que su versión preliminar en varios puntos de referencia, aunque ambos superan ampliamente al modelo 4o.
El modelo o1 ya está disponible para usuarios de los planes Plus y Team, mientras que el acceso para las versiones Enterprise y Education se implementará la próxima semana.
Por qué es importante:
OpenAI ha comenzado fuerte su evento de revelaciones navideñas, lanzando el esperado o1 completo y su modo Pro, generando entusiasmo desde el inicio. Aunque el nuevo nivel de suscripción a $200 representa un salto considerable respecto a los planes anteriores y a las ofertas de la competencia, es probable que los usuarios avanzados estén dispuestos a invertir para realizar tareas más intensivas.
Microsoft ha lanzado su nueva función Copilot Vision, que permite a su asistente ver e interactuar con las páginas web que el usuario navega en Edge en tiempo real. Esta función ya está disponible en fase de vista previa para un número limitado de usuarios Pro.
Detalles:
Vision se integra directamente en la interfaz del navegador Edge, permitiendo que Copilot analice texto e imágenes en sitios web autorizados cuando los usuarios habilitan la función.
Puede ayudar con tareas como comparaciones de compras, interpretación de recetas y estrategias de juegos mientras se navega por sitios compatibles.
Microsoft presentó esta función en octubre junto con otras mejoras de Copilot, como capacidades de voz y razonamiento.
La compañía subrayó el enfoque en la privacidad con Vision, haciéndola una función de activación voluntaria y garantizando el borrado automático de los datos de voz y contexto al final de cada sesión.
Por qué es importante:
Es uno de los productos más impresionantes del año. La adición de contexto en tiempo real y la capacidad del AI de "ver" todo en tu navegador marca una nueva era para la inteligencia artificial, con potencial para volverse un estándar en 2025.
Por si te lo perdiste, Rowan, fundador de The Rundown, entrevistó al CEO de Microsoft AI, Mustafa Suleyman, para hablar sobre cómo funciona Copilot Vision, memoria infinita, compañeros de IA, agentes, y más.
Clone Robotics ha presentado Clone Alpha, un robot extremadamente humanoide que incorpora órganos sintéticos y músculos artificiales impulsados por agua, con 279 unidades disponibles para preordenar en 2025.
Detalles:
El robot utiliza músculos "Myofiber" presurizados con agua en lugar de motores para moverse, replicando patrones de movimiento naturales con huesos y articulaciones sintéticos.
La compañía ya está aceptando pedidos para su primera producción de 279 robots, aunque aún no ha mostrado públicamente una versión completa y funcional.
Las habilidades de Alpha incluyen preparar bebidas y sándwiches, hacer la colada y pasar la aspiradora, además de aprender nuevas tareas a través de una plataforma de entrenamiento llamada ‘Telekinesis’.
El sistema opera con "Cybernet", el modelo visiomotor de Clone, que utiliza cuatro cámaras de profundidad para tener conciencia ambiental.
Por qué es importante:
Clone Alpha destaca como un diseño único entre los robots humanoides líderes en el mercado, con un enfoque inspirado en el cuerpo humano que promete movimientos más naturales y mayor destreza. Sin embargo, dado que aún no se han mostrado demostraciones ni más detalles, adoptar un enfoque de espera y cautela antes de realizar un pedido parece lo más sensato.
NUEVAS HERRAMIENTAS
🗣️ Conversational AI by ElevenLabs - Create AI agents that can speak for your website, application, or call center
🫵 Pointer - An AI editing copilot for Google Docs offering efficient, polished, and real-time edits
📊 Tables - Instantly transform unstructured data into actionable tables
🤝 SDRx - An AI SDR that builds targeted lists, conducts account research, crafts personalized emails, and more
🤖 Athina - An AI development platform to create, test, and monitor AI applications and agents
NOTICIAS EXPRESS
OpenAI llevará a cabo un evento de 12 días en curso que, según un informe de The Verge, incluirá el lanzamiento de su modelo de generación de video Sora.
Google lanzó PaliGemma 2, la versión de próxima generación de su modelo de visión-lenguaje, que presenta capacidades mejoradas en múltiples tamaños de modelo, subtitulado de imágenes optimizado y un mejor rendimiento en tareas especializadas.
La empresa xAI de Elon Musk aseguró oficialmente 6.000 millones de dólares en nueva financiación, destinada a impulsar una supuesta expansión masiva de su supercomputadora Colossus a más de 1 millón de GPUs.
Humane presentó CosmOS, un sistema operativo de IA diseñado para funcionar en múltiples dispositivos, como televisores, automóviles y altavoces, tras la recepción negativa del dispositivo de broche de IA de la startup.
El propietario del periódico LA Times, Soon-Shiong, anunció planes para implementar un "medidor de sesgo" impulsado por IA en los artículos de noticias, en medio de la reestructuración de la junta editorial y las protestas del personal.
Google también implementó nuevas actualizaciones de Gemini 1.5 en Android, añadiendo descripciones de fotos impulsadas por IA en la app Lookout, integración de Spotify para el Asistente Gemini, y funciones ampliadas de control del teléfono y comunicaciones.
¡ESO ES TODO!
|