IPhone 12 Pro, iOS 14.2 permite que las personas ciegas detecten a otras personas a su alrededor

apple-iphone-12-pro-1754

El asa del escáner en los nuevos iPhone 12 Pro y 12 Pro Max de Apple permite nuevas funciones de RA, y la capacidad de las personas ciegas o con problemas de visión para detectar a otras personas a su alrededor.

James Martin / CNET

El iPhone 12 Pro y 12 Pro Max de Apple tienen una nueva función para usuarios ciegos o con baja visión: la capacidad de ver a otras personas que vienen. La función se puso en marcha para los usuarios de iPhone y iPad el jueves. con el lanzamiento de iOS 14.2.

Los dispositivos hacen uso de la nueva manija del sensor en la parte posterior de los teléfonos para detectar la proximidad de otras personas al usuario, algo que Apple llamó Detección de Personas. Hacer frente es un tipo de sensor de profundidad que ayuda con las aplicaciones de realidad aumentada y sirve como los ojos de los coches autónomos. Ahora, Apple está aplicando esto a la accesibilidad en un esfuerzo por ayudar a las personas con problemas de visión a navegar mejor por el mundo que les rodea.

Cuando alguien ciego está comprando, por ejemplo, puede activar la Detección de personas en su iPhone 12 Pro para advertirle cuando debe pasar a la línea de pago. O alguien que camine por una acera recibirá alertas sobre la proximidad de otras personas al pasar. Las personas ciegas o con problemas de visión pueden utilizar la función para averiguar si hay un asiento disponible en una mesa o en el transporte público, y podrán mantener una distancia social adecuada al pasar los controles de salud o las líneas de seguridad en un aeropuerto.

People Detection podrá saber la distancia entre el usuario y el usuario en pies o metros, y funciona hasta 15 pies / 5 metros de distancia. Cualquiera en la vista de la cámara gran angular del iPhone 12 Pro puede ser detectado por la función. Si hay varias personas alrededor, la Detección de personas proporcionará la distancia a la persona más cercana al usuario de iPhone.

Apple lanzó una versión beta del software iOS 14.2 para desarrolladores el viernes, antes de lanzar la versión completa a todos los usuarios el jueves.

A nivel mundial, al menos 2.200 millones de personas tienen discapacidad visual o ceguera, según un Organización Mundial de la Salud informe del año pasado. En EE.UU., más de 1 millón de personas mayores de 40 años son ciegas, según el Centros de Control y Prevención de Enfermedades. Para el 2050, ese número podría dispararse a alrededor de 9 millones debido a «la creciente epidemia de diabetes y otras enfermedades crónicas y el rápido envejecimiento de la población estadounidense», dijo el CDC.

Apple ha hecho de la accesibilidad un foco de atención durante décadas. Incluye características en su tecnología para ayudar a las personas con discapacidad visual a navegar por la pantalla táctil del iPhone y permitir que las personas con discapacidades motoras toquen virtualmente los iconos de la interfaz. Hace cuatro años, Apple inició uno de sus llamativos lanzamientos de productos hablando sobre accesibilidad y mostrar su nuevo sitio web dedicado.

«La tecnología debe ser accesible para todos, «CEO de Apple Tim Cook dijo en ese momento.

Apple, en particular, lleva mucho tiempo creando recursos para ayudar a las personas ciegas o con baja visión. Su nuevo detector de personas lleva esto un paso más allá.

Oferta de detección

La tecnología hace uso del nuevo escáner de escáner integrado en el conjunto de la cámara del iPhone 12 Pro y 12 Pro Max. también en el iPad Pro más nuevo y es probable que aparezcan otros dispositivos en el futuro. El escáner en sí es un pequeño punto negro al lado de la lente de la cámara, en la parte posterior de los nuevos iPhones de próxima generación.

La detección de personas no funciona en iPhones más antiguos, iPhone 12, 12 Mini o incluso en el nuevo iPad Air. Ninguno de estos dispositivos viene con escáneres de asa, lo cual es esencial para la tecnología de detección de personas.


Jugando ahora:
Mira esto:

Nuestro análisis en profundidad del iPhone 12 y 12 Pro


13:48

People Detection utiliza la función de oclusión de personas ARKit de Apple para detectar si alguien está en el campo de visión de la cámara y estimar qué tan lejos está la persona. El asa del escáner hace que la estimación sea más precisa. Envía una pequeña ráfaga de luz y mide cuánto tiempo tarda la luz en volver al escáner para manipularla. La nueva función no funciona en entornos oscuros o con poca luz.

Toda la detección se lleva a cabo en tiempo real para proporcionar información sobre qué tan lejos está una persona del usuario del iPhone 12 Pro.

El usuario recibe comentarios de la Detección de personas de cuatro formas posibles, y se pueden utilizar en cualquier combinación. Todo se puede personalizar en la configuración. Una forma de obtener información sobre la proximidad de una persona es mediante una lectura audible. El teléfono dirá en voz alta «15, 14, 13» y así sucesivamente, cuando se trata de pies. Proporciona la distancia en medio metro para las personas que eligen esta unidad de medida.

Los usuarios de iPhone 12 Pro también pueden establecer una distancia límite con dos tonos de audio distintos. Uno es para cuando las personas están fuera de esa distancia y otro es para cuando las personas están más cerca del usuario. El límite predeterminado es 6 pies o 2 metros.

El tercer tipo de alerta es a través de la retroalimentación táctil. Cuanto más lejos está una persona, más bajo y más lento es el pulso físico de los mangos. Cuanto más se acerca la persona, más rápido es el zumbido táctil. Los hápticos actualmente solo se realizan por teléfono, no a través del Apple Watch.

También existe la opción de obtener una lectura visual en la propia pantalla. En ese caso, le dirá qué tan lejos está la persona y una línea de puntos indicará dónde está la persona en la pantalla.

La detección de personas reside en la aplicación Lupa de Apple. Los usuarios pueden iniciarlo utilizando la configuración Back Tap de Apple o mediante el acceso directo de accesibilidad del botón lateral de tres clics. Siri puede iniciar Magnifier, pero los usuarios deben habilitar la Detección de personas desde allí.

Fue diseñado para ser una herramienta situacional que las personas activan cuando lo necesitan, en lugar de una función siempre activa. Ejecutarlo durante un período de tiempo significativo consumirá mucha batería.

Por ahora, el iPhone solo detecta personas, pero los desarrolladores podrían usar la tecnología de acuerdos para crear aplicaciones de detección de objetos.

Otras características de iOS 14.2 incluyen 13 nuevos caracteres emoji y una función de reconocimiento de música a través de Shazam en el Centro de control.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *