Me pregunto si sería fácil buscar unas gafas como las de Meta pero que tuviesen un SDK, y montar en el iPhone una app que usase las cámaras de las gafas para usar el multimodal en tiempo real de GPT 4O para descripciones en tiempo real. Eso sí que molaría.
@kastwey sí, irían bien gafas abiertas. Conozco a alguien que desarrolla sobre unas gafas más o menos abiertas, pero del tipo "pantalla en el cristal". The Verge publicó un resumen de gafas ayer:
, pero creo que todavía no hay nada para lo que dices :(