Me pregunto si sería fácil buscar unas gafas como las de Meta pero que tuviesen un SDK, y montar en el iPhone una app que usase las cámaras de las gafas para usar el multimodal en tiempo real de GPT 4O para descripciones en tiempo real. Eso sí que molaría.
@kastwey cómo funcionan las gafas de meta exactamente? yo las probé por una conocida y siempre hablaba el voiceover en inglés, solo pude tomar fotografías y poco más.
@kastwey sí, irían bien gafas abiertas. Conozco a alguien que desarrolla sobre unas gafas más o menos abiertas, pero del tipo "pantalla en el cristal". The Verge publicó un resumen de gafas ayer:
, pero creo que todavía no hay nada para lo que dices :(
@Rayoalcantar va con comandos de voz, pero sí, actualmente están solo en inglés. De hecho para usar la IA tienes que poner una VPN y engañarlas.
Las gafas te permiten escucha rel iPHone desde las gafas, e invocar sus comandos diciendo "Hey Meta". LUego puedes preguntar cosas como:
What do you have infront of you?
Y ella te lo describe usando su IA.
@Rayoalcantar sí, para ponerlas en marcha tienes que usar la app.