- Artificialmente Newsletter
- Posts
- 🚨 ChatGPT evoluciona, voces robóticas desaparecen
🚨 ChatGPT evoluciona, voces robóticas desaparecen
OpenAI conecta ChatGPT a tus apps mientras ElevenLabs presenta voces humanas casi perfectas

¡Bienvenidos a un boletín más de Artificialmente.IA!
Esta semana veremos lo último en IA: ChatGPT ahora se conecta directo con tus apps, las voces artificiales suenan más humanas que nunca, y Apple revela algo inesperado sobre cómo razonan los modelos de IA.
¡Vamos de una!
Lo más relevantes de esta semana:
1. ChatGPT ahora está conectado
ChatGPT can now connect to more internal sources & pull in real-time context—keeping existing user-level permissions.
Connectors available in deep research for Plus & Pro users (excl. EEA, CH, UK) and Team, Enterprise & Edu users:
Outlook
Teams
Google Drive
Gmail
Linear
& more— OpenAI (@OpenAI)
5:43 PM • Jun 4, 2025
OpenAI anunció una gran actualización: ahora ChatGPT puede conectarse directamente con aplicaciones para buscar información en tiempo real.
Conectores integrados: Outlook, Teams, Google Drive, Gmail, Linear y más
Conectores empresariales: Integración exclusiva con Dropbox y Box
Modo de grabación: Usuarios Team en macOS podrán grabar reuniones, notas o ideas que automáticamente se transcriben
Mi opinión:
ChatGPT poco a poco se convierte en un verdadero asistente. El éxito de estas herramientas dependerá de qué tan fácil y rápido puedas integrarlas en tu día a día.
Ahora mismo la batalla no es solo por tener la mejor IA, sino por crear la interfaz más sencilla y útil para que todos la puedan aprovechar.
2. ElevenLabs presenta su nueva voz de IA más humana
Introducing Eleven v3 (alpha) - the most expressive Text to Speech model ever.
Supporting 70+ languages, multi-speaker dialogue, and audio tags such as [excited], [sighs], [laughing], and [whispers].
Now in public alpha and 80% off in June.
— ElevenLabs (@elevenlabsio)
6:14 PM • Jun 5, 2025
ElevenLabs lanzó Eleven v3 (alpha), su nuevo modelo de texto a voz más natural y expresivo hasta ahora.
Habla más natural: Soporta más de 70 idiomas con tonos que parecen reales, ideales para contextos muy distintos.
Diálogo entre varias voces: Genera conversaciones creíbles donde las voces mantienen coherencia emocional.
Control del audio: Puedes dirigir la voz con instrucciones simples como [emocionado], [susurra], [ríe] o [suspira].
Mayor inteligencia emocional: Maneja interrupciones y cambios de emoción con fluidez, creando diálogos más dinámicos.
Mi opinión:
La demostracion realmente me sorprendió. Las voces robóticas están desapareciendo para siempre. Imagínate cuando asistentes virtuales o robots tengan esta voz tan realista.
Cada vez nos acercamos más a que la inteligencia artificial hable y actúe exactamente como nosotros.
Contenido que Disfruté
Figure AI demuestra en vivo que los robots están a punto de quitarte el trabajo
Watch Helix's neural network do 60 minutes of uninterrupted logistics work
Helix now incorporates touch and short-term memory and it's performance continuously improves over time
— Figure (@Figure_robot)
4:43 PM • Jun 7, 2025
Esta semana, Figure AI mostró una prueba impresionante de su robot Figure 02 clasificando paquetes durante 60 minutos seguidos sin detenerse.
Este robot funciona con Helix, un sistema de inteligencia artificial que permite a los robots pensar casi como humanos. ¿Cómo funciona?
Sistema lento (Sistema 2): Piensa cuidadosamente sobre qué hacer, analizando la escena y entendiendo las instrucciones.
Sistema rápido (Sistema 1): Actúa inmediatamente, ajustando movimientos al momento para resolver situaciones sobre la marcha.
Gracias a Helix, los robots son 20% más rápidos y un 35% más precisos en escanear códigos de barras.
Al entrenar más tiempo (de 10 a 60 horas), lograron reducir de 6.3 a 4.3 segundos el tiempo por paquete, y mejoraron la precisión del escaneo del 88% al 95%.
Mi opinión:
Me encantó que la demostración fuera realista, mostrando incluso los errores. Esto es mucho más auténtico que los típicos videos editados que suelen mostrarse.
Idea que Aprendí

"Cerebros de Chips" de IA / Geeky Gadgets
Apple revela la verdad incómoda sobre cómo “piensan” los modelos de IA
Apple acaba de publicar un estudio llamado “La Ilusión del Pensamiento”, que está causando controversia porque cuestiona profundamente cómo funcionan realmente modelos como Claude y ChatGPT.
La investigación muestra algo impactante: estos modelos realmente no razonan. Son muy buenos encontrando patrones, pero fallan completamente cuando enfrentan situaciones nuevas.
Ejemplos claros:
Pueden resolver un rompecabezas conocido (como la Torre de Hanói) en más de 100 pasos, pero fallan rápidamente en otros después de solo 4 pasos.
“Sobrepiensan” en problemas fáciles (buscan respuestas incorrectas después de haber encontrado la solución correcta), pero abandonan rápidamente cuando algo parece complicado.
Mi opinión:
Lo más revelador no es solo sobre la IA, sino sobre nosotros mismos. La mayoría de lo que hacen profesionales como médicos o pilotos es, justamente, detectar patrones.
El verdadero razonamiento aparece cuando algo totalmente nuevo sucede. Tal vez esta investigación muestra que tanto humanos como máquinas nos parecemos más de lo que pensamos.
Recuerda esto la próxima vez que quedes impresionado por lo que parece el “razonamiento” de una IA.
Post de la semana: Un nuevo estudio afirma que ChatGPT es mejor terapeuta que los humanos
🎁 Acceso Gratis a Nuestro Curso Exclusivo de ChatGPT
Conoce los métodos que el 90% de usuarios ignora y obtén mejores resultados.
Tienes una pregunta sobre IA?
Responde a este correo y elegiré una para responder la próxima semana 👍
Nos vemos en el próximo boletín.
Ivan A.
Reply