REDACCIÓN INTERNACIONAL.-Ya tenemos con nosotros a los nuevos iPhone 16 y iPhone 16 Plus, los móviles de la gama estándar de Apple, que también ha renovado su catálogo de buques insignia con los esperados iPhone 16 Pro y iPhone 16 Pro Max.
El enfoque de estos dispositivos sigue siendo el de años anteriores. Ambos plantean una alternativa algo más asequible para quienes quieren todas las garantías de los iPhone, pero que no necesitan tampoco esas prestaciones máximas que prometen los modelos Pro. Y como en el caso de sus antecesores, son una opción realmente válida para un gran número de usuarios: conozcámoslos más de cerca.
Aunque se mantienen los tamaños de los nuevos iPhone 16 (6,1 pulgadas) y los iPhone 16 Plus (6,7 pulgadas) respecto a la generación anterior, hay novedades en los colores disponibles: además de blanco y negro, tenemos el rosa, verde y azul, con unas tonalidades más vibrantes y algo más saturadas que en generaciones anteriores.
El diseño de la parte trasera también es claramente diferencial por la posición de las cámaras en el módulo de cámaras: ahora están alineadas verticalmente en lugar de estar enfrentadas en una diagonal.
La pantalla está protegida por un nuevo protector cerámico que según Apple es dos veces más resistente que el cristal protector de otros smartphones, y que también es un 50% más resistente que su anterior protector.
El brillo de la pantalla puede llegar hasta los 2000 nits para exteriores con mucha luz, pero en plena oscuridad el brillo puede bajar hasta un solo nit.
Sin embargo, lo que más destaca de este rediseño es la presencia de dos nuevos botones. Además del botón de encendido y los de control de volumen, en el lateral derecho tendremos dos botones que debutan en estos dispositivos.
El primero, el botón de acción que ya teníamos en los iPhone 15 Pro/Max del año pasado. Podremos asignar todo tipo de opciones a ese botón, como lanzar Siri, grabar un memo de voz o identificar canciones.
El segundo de esos botones es totalmente nuevo: se trata del llamado Camera Control, que permite no solo sacar fotos, sino activar una función similar a Google Lens para que nos dé información sobre lo que estamos viendo en pantalla. Esa función se basa en la nube de Apple que «nunca guarda la imagen».
El concepto, parte de la «Visual Intelligence» de Apple, permite utilizar esa IA multimodal para usar la cámara del iPhone como «prompt» para preguntar cosas sobre lo que estamos viendo.