Los iPhone llevan años liderando la batalla por la mejor cámara en un smartphone. Pero lo que viene podría superar las expectativas: Apple está desarrollando sensores multiespectrales para captar imágenes que, literalmente, el ojo humano no puede ver. Esta innovación fue revelada a través de una patente publicada por la Oficina de Patentes y Marcas de Estados Unidos.
La compañía planea integrar esta tecnología en sus futuros iPhone, posiblemente en 2027 a 2028. ¿Qué implicaría? La capacidad de detectar información más allá del espectro visible, como la luz infrarroja y ultravioleta, algo que hasta ahora estaba reservado para cámaras científicas o militares.
¿Cómo funciona esta tecnología de sensores multiespectrales?
Los sensores multiespectrales permiten capturar distintos rangos del espectro electromagnético, lo que se traduce en fotografías con más profundidad, precisión de color y detalles que normalmente pasan desapercibidos. Apple planea usar una matriz de filtros espectrales colocados frente a sensores individuales, permitiendo a cada uno captar una longitud de onda diferente.
Además, el sistema incorporaría un procesamiento avanzado de imágenes para reconstruir una fotografía final más rica y realista. De aplicarse con éxito, esto abriría nuevas posibilidades para funciones como el reconocimiento facial, la realidad aumentada o el análisis biométrico.
En términos prácticos, los usuarios podrían obtener retratos más fieles, capturar escenas con poca luz de forma mucho más eficiente o incluso registrar datos ambientales invisibles al ojo. La fotografía móvil entraría en una nueva era.











