• LA SEÑAL
  • Posts
  • ChatGPT se enfrenta a Google Search

ChatGPT se enfrenta a Google Search

ADEMÁS: Sam Altman ofrece actualizaciones sinceras en su AMA de Reddit

¡Bienvenidos, entusiastas de la IA!

OpenAI acaba de equipar a ChatGPT con acceso en tiempo real a la web, y el futuro de las búsquedas se acaba de volver mucho más conversacional.

  • ¿Será este el movimiento que transformará para siempre cómo interactuamos con la información, o seguirá reinando el imperio de búsqueda de Google? Vamos a analizarlo...

    Resumen de hoy en IA:

  • - OpenAI lanza búsqueda en ChatGPT

  • - AMA de Sam Altman en Reddit y actualizaciones del Dev Day

  • - Herramientas para encontrar y conectar con ejecutivos de empresas

  • - Modelo de IA compacto domina el control humanoide

  • - 6 nuevas herramientas de IA y 4 nuevos empleos en el sector de IA

  • - Más noticias de IA y tecnología

Tiempo de lectura: 4 minutos

ÚLTIMOS DESARROLLOS

OpenAI acaba de anunciar la integración de capacidades de búsqueda web en tiempo real directamente en ChatGPT, transformando el chatbot en un centro de información en directo que lo pone en competencia directa con Google y los motores de búsqueda tradicionales.

Detalles:

La nueva función de búsqueda proporciona respuestas instantáneas sobre temas como noticias, deportes, bolsa y clima, con atribución directa a las fuentes y enlaces.

ChatGPT activará las búsquedas automáticamente cuando sea necesario, aunque las usuarias podrán activarlas manualmente mediante un icono de globo terráqueo.

El sistema se ejecuta en una versión especializada de GPT-4, ajustada específicamente para obtener información en la web, y los resultados incluyen fuentes y enlaces clicables al contenido original.

Importantes editoriales, incluyendo AP, Reuters, Axel Springer, y otras, han firmado acuerdos de licencia con OpenAI para proporcionar contenido directo a la plataforma.

El acceso empieza hoy para usuarias de los planes Plus y Team, y se ampliará a las de los planes Enterprise/Edu en las próximas semanas, llegando a las usuarias gratuitas en los próximos meses.

Por qué es importante:

Después de meses de rumores y especulaciones, la transformación de búsqueda de OpenAI ya está aquí. Este movimiento podría marcar un cambio importante en cómo accedemos a la información en línea, combinando la capacidad conversacional de la IA con la funcionalidad de búsqueda tradicional, lo que podría remodelar el panorama de los motores de búsqueda y los hábitos de las usuarias.

 

OpenAI celebró esta semana su primer Dev Day internacional en Londres, donde presentó las nuevas capacidades de su modelo o1 y una API de voz en tiempo real, además de participar en una reveladora sesión de preguntas y respuestas en Reddit con el CEO Sam Altman y otros miembros del equipo directivo.

Detalles:

En las demostraciones, el modelo o1-mini creó una app funcional para controlar drones, y utilizó la API en tiempo real para hacer pedidos de comida para el gran grupo, entre otras aplicaciones.

OpenAI redujo los precios de su API en tiempo real, con un descuento del 50% para entradas de texto y del 80% para audio, junto con cinco nuevas voces para capacidades de voz a voz.

Durante el AMA en Reddit, Altman reconoció que OpenAI “no puede lanzar tantas cosas en paralelo” como esperaba, debido a la complejidad de los modelos y las limitaciones en capacidad de cómputo.

Altman también comentó que el equipo está priorizando el lanzamiento de o1 y sus sucesores, y el director de producto Kevin Weil afirmó que la versión completa de o1 llegará “pronto”.

Altman reveló que “nada llamado GPT-5” saldrá este año, aunque siguen en camino “muy buenos lanzamientos” para finales de 2024.

Por qué es importante:

OpenAI está avanzando rápidamente, pero las admisiones sinceras muestran que incluso el líder en IA enfrenta limitaciones de infraestructura al ejecutar cada punto ambicioso de su hoja de ruta. Aunque GPT-5 no llegará en 2024, hay suficientes señales para intuir que Altman y su equipo aún tienen algo grande preparado para diciembre.

 

Nvidia acaba de publicar una nueva investigación sobre HOVER, una pequeña red neuronal de solo 1,5 millones de parámetros capaz de controlar movimientos corporales completos de robots de manera eficaz en diversos modos y métodos de entrada.

Detalles:

A pesar de ser miles de veces más pequeño que los modelos de IA típicos, el modelo logra un rendimiento superior en comparación con controladores especializados.

Nvidia entrenó el sistema en su simulador ‘Isaac,’ que comprime un año de entrenamiento en solo 50 minutos utilizando una única GPU.

El sistema funciona sin problemas con métodos de entrada variados, incluidos cascos de realidad virtual, captura de movimiento, exoesqueletos y joysticks.

HOVER se transfiere directamente de la simulación a robots reales sin requerir ajuste adicional.

Por qué es importante:

Mientras el mundo de la IA se orienta hacia modelos más grandes, HOVER demuestra que los sistemas pequeños aún pueden superar el rendimiento de los grandes. Su capacidad para trabajar con múltiples modos de control con requisitos mínimos de computación podría democratizar el control avanzado de la robótica, haciendo más accesible y práctico el desarrollo de sistemas humanoides sofisticados.

 

NUEVAS HERRAMIENTAS

 

  • ElevenLabs - El mejor creador de audios / voces por IA

  • ChatGPT Voz Avanzada - Ahora disponible en aplicaciones de escritorio para Mac y Windows

  • GitHub Spark AI - Crea y gestiona microaplicaciones de pila completa con indicaciones de IA

  • Laminar - Plataforma todo en uno para proyectos de ingeniería en IA

  • Browser AI Kit - Ejecuta herramientas de IA completamente gratis y directamente en tu navegador

  • Trove - Inteligencia de IA en tiempo real para transacciones financieras

 

NOTICIAS EXPRESS

 

Anthropic anunció que Claude ahora está disponible en aplicaciones de escritorio para Apple y Windows, y también está lanzando nuevas capacidades de dictado para dispositivos móviles y iPad.

Google Maps integró Gemini en la plataforma para nuevas recomendaciones personalizadas, funciones de navegación potenciadas por IA y capacidades ampliadas de Vista Inmersiva.

El equipo FAIR de Meta reveló tres grandes avances en robótica con sistemas de detección táctil de código abierto, incluyendo una yema de dedo artificial similar a la humana y una plataforma unificada para la integración del tacto robótico.

D-ID presentó Personal Avatars, una nueva suite de avatares hiperrealistas para profesionales del marketing, con humanos digitales capaces de interacción en tiempo real generados a partir de solo un minuto de metraje de origen.

Microsoft está posponiendo el lanzamiento de la función ‘Recall’ de Copilot Plus hasta diciembre, marcando el tercer retraso del año mientras la compañía revisa los controles de seguridad y de opt-in para el sistema de capturas de pantalla con IA.

Google también lanzó una nueva herramienta experimental llamada ‘Learn About’ que permite la exploración de diversos temas mediante una interfaz conversacional interactiva basada en IA.

ElevenLabs debutó con la nueva función ‘X to Voice’ que permite a los usuarios diseñar una voz única de IA basada en su cuenta de redes sociales de X.

¡ESO ES TODO!