Apple usaría los nuevos sensores de imagen ‘state-of-the-art’ de Sony en el iPhone 15. De esta manera, la empresa ya no dependerá de Samsung para esta parte de las cámaras de sus dispositivos, además de la gran calidad en las fotografías que haría el próximo smartphone.
“El Grupo Sony suministrará a Apple su último sensor de imagen de última generación, según ha sabido Nikkei, y se espera que el componente esté presente en la próxima serie de iPhones que saldrán a la venta el próximo año”, reporta Nikkei.
Además de Apple, otras marcas de celulares podrían utilizar esta nueva tecnología. “Sony Semiconductor Solutions desarrolló el nuevo sensor de imagen, que la empresa del grupo fabricará en su planta de Nagasaki y comenzará a enviar a Apple y otros fabricantes de teléfonos inteligentes”, agrega el medio.
MIRA: iPhone 15: proveedor de Apple casi confirma los rumores de que el celular no tendrá botones físicos
Esto implicaría que Samsung ya no sea el principal proveedor de sensores de imagen para Apple. “La incorporación del nuevo sensor de imagen en los próximos iPhone será crucial para que Sony consolide su ventaja competitiva en tecnología de fotografía de alta definición. Su principal rival, Samsung Electronics, ha aumentado la presión sobre Sony, que ya suministra sensores de imagen a Apple, en este campo”, añade.
Sin embargo, no se conoce si Apple pondrá estos sensores de imagen para toda la nueva generación de los iPhone, o si solo para algunas versiones. Lo más probable es que los modelos Pro y Ultra (nombre que tendría el Pro Max) sí cuenten con esta tecnología en la cámara.
MIRA: Apple tendrá que utilizar chips de memoria de Samsung en los iPhone para 2023
¿Cómo funcionan los sensores de imagen de Sony que utilizará el iPhone 15?
Estos sensores de imagen ‘state-of-the-art’ permitirá capturar todo lo que ve el lente de la cámara, sin importar la circunstancias de luz y oscuridad que haya. “El nuevo sensor de imagen de Sony duplica aproximadamente el nivel de saturación de la señal en cada píxel en comparación con los sensores convencionales. En otras palabras, los sensores pueden capturar más luz y reducir la sobreexposición o la subexposición en ciertas configuraciones, lo que permite que la cámara de un teléfono inteligente fotografíe claramente el rostro de una persona, incluso si el sujeto está parado contra una fuerte luz de fondo”, asegura el medio.
Para obtener esta tecnología, la empresa tuvo que optimizar considerablemente cómo funcionan sus semiconductores. “Sony logró este avance utilizando una nueva arquitectura de semiconductores que coloca fotodiodos y transistores en capas de sustrato separadas, lo que permite que el sensor agregue más fotodiodos a la capa dedicada”, concluye.
VIDEO RECOMENDADO
Contenido sugerido
Contenido GEC