Anuncio cerrado

Durante el día de hoy comienza a aparecer en Internet información sobre una novedad muy interesante de Apple, que podría presentarse al mundo mañana mismo. Según estos informes, Apple está lista para introducir un nuevo sistema que escaneará fotos en su dispositivo, con algoritmos hash que buscan una coincidencia que apunte a imágenes de abuso infantil almacenadas. Por ejemplo, también puede ser pornografía infantil.

iPhone 13 Pro (renderizado):

En nombre de la seguridad, el sistema debería estar del lado del cliente. En la práctica, esto significa que todos los cálculos y comparaciones se realizarán directamente en el dispositivo, cuando el iPhone descarga la base de datos de huellas dactilares necesaria para realizar comparaciones individuales. Si hubiera un resultado positivo, el caso probablemente se pasaría a un trabajador regular para su revisión. De todos modos, por el momento sólo podemos especular cómo funcionará el sistema en la final, cuáles serán sus condiciones y posibilidades. Por lo tanto, actualmente tenemos que esperar la presentación oficial. Algo similar ya funciona en iOS, por ejemplo, cuando el teléfono puede reconocer y categorizar diferentes fotografías mediante Machine Learning.

Sin embargo, el experto en seguridad y criptografía Matthew Green llamó la atención sobre el nuevo sistema, según el cual se trata de un campo extremadamente complicado. Porque los algoritmos hash pueden fallar con bastante facilidad. En el caso de que Apple conceda acceso a la propia base de datos de las llamadas huellas dactilares, que se utilizan para comparar y posiblemente identificar imágenes de abuso infantil, a gobiernos y organizaciones gubernamentales, existe el riesgo de que el sistema pueda usarse también para otras cosas. . Esto se debe a que estos sujetos podrían buscar deliberadamente otras huellas dactilares, lo que en casos extremos puede conducir a la supresión del activismo político y similares.

aplicaciones para el iPhone

Pero no hay motivos para entrar en pánico, al menos por ahora. Por ejemplo, incluso todas sus fotos almacenadas en iCloud a través de copias de seguridad no están en última instancia cifradas, sino que se almacenan de forma cifrada en los servidores de Apple, mientras que las claves nuevamente las conserva el gigante de Cupertino. Así, en caso de una emergencia justificada, los gobiernos pueden solicitar que ciertos materiales estén disponibles. Como se mencionó anteriormente, actualmente no está claro cómo será el sistema final. El abuso infantil es un problema enorme y desde luego no está de más tener a mano las herramientas adecuadas para detectarlo. Al mismo tiempo, sin embargo, no se debe abusar de ese poder.

.