A muchos usuarios les resulta incómodo llevar unos auriculares de tipo botón: les duelen las orejas o no soportan la sensación de vacío que producen los modelos con almohadillas. Si es tu caso, debes saber que hay alternativas para que puedas escuchar música de forma personal y sin molestar a nadie mientras andas por la calle, trabajas o viajas en transporte público.

Son modelos como los Ultra Open Earbuds, que acaba de presentar la firma de audio Bose, y que tienen lo que ya se conoce como diseño abierto: sacan los auriculares fuera del pabellón auditivo colocándolos a modo de brazalete alrededor de la oreja. Salvando las distancias, como si fueran unos pendientes. Esto tiene un beneficio adicional, y es que mientras los utilizas en todo momento eres consciente de lo que ocurre alrededor, puedes mantener conversaciones… Ni siquiera hay que preocuparse de subir o bajar el volumen en función de los ruidos, porque los auriculares lo van ajustando de forma automática.

Solo los escuchas tú

La realidad es que este tipo de auriculares todavía no abundan en el mercado y la mayoría de los que hay son modelos de marcas desconocidas y calidad y garantía cuestionables que se venden en los comercios más populares por precios mucho más bajos. Pero lo cierto es que son extremadamente cómodos, hasta el punto de olvidarse completamente que los llevas puestos. En el caso de los de Bose, además, la calidad de audio es espectacular; solo mejoraría cómo escuchan la voz los interlocutores durante las llamadas, ya que la perciben algo enlatada. Además, y pese a lo que pudiera parecer a simple vista, el sonido de la música, las llamadas o los podcast se dirige directamente a los oídos y las personas que están alrededor no escuchan absolutamente nada; aunque estén a centímetros.

Para ello emplean una tecnología muy similar a la de sus gafas conectadas, las Bose Frames; un producto ahora descatalogado del que se comercializaban versiones tanto para ver como de sol y que dirigía el sonido a los oídos desde las patillas. En la actualidad hay otras alternativas a este tipo de wearables, siendo la principal las Smart Glasses de Meta y Ray-Ban que, como elemento diferencial, incorporan una cámara de 12 megapíxeles y 5 micrófonos con los que capturar fotografías, grabar vídeos e, incluso, transmitir en directo en Facebook e Instagram.

Volviendo a los auriculares de diseño abierto, el otro ejemplo que destacaría sería el de los Huawei FreeClip, con una característica muy peculiar: no distinguen entre oreja izquierda o derecha, así que son totalmente intercambiables. Una vez colocados, el sistema detecta qué auricular está en cada lado y adapta el sonido a ello.

A través del pómulo

Una alternativa más: los auriculares que emplean la tecnología de conducción ósea para llevar el sonido hasta nuestros oídos. O no exactamente. Porque, en este caso, se colocan en los pómulos en lugar de en las orejas y generan pequeñas vibraciones que se propagan por el cráneo sin pasar por los tímpanos. Al principio la sensación de utilizar unos auriculares con esta tecnología como los que proponen Shokz o Suunto es extraña, precisamente por ser conscientes de que el sonido no entra por los oídos y, aunque la calidad del audio es normalmente inferior a los sistemas de diseño abierto, resultan bastante cómodos para la práctica deportiva; son su principal aplicación, ya que la mayoría de modelos son resistente al sudor, al polvo y al agua, y su diseño con una banda que se coloca tras la cabeza hace que sean bastante estables con movimientos bruscos.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

No abundan, pero tampoco es difícil encontrar en la alta dirección de empresas tecnológicas a personas formadas en la filosofía. Sergio Boixo, físico de Google Quantum, pasó por las aulas de esta disciplina antes de convertirse en un referente del mundo cuántico. A Bobby Ford, vicepresidente de Hewlett Packard Enterprise (HP) y que también estudió el sentido del obrar humano, aún le debe resonar lo aprendido del principio kantiano que considera a la persona un fin y no un simple medio. Y le sirve para afrontar la mundial falta de profesionales en el ámbito tecnológico y afirmar: “No creo que tengamos una escasez de talento, creo que tenemos una escasez de experiencia. Si esta es mi filosofía, en lugar de salir a buscar talento, lo que hago es encontrarlo dentro de mi organización, crear opciones para brindar a las personas de orígenes diversos y diferentes la oportunidad de obtener más experiencia”.

El problema al que alude Ford, durante su participación en CPX Viena, es general. El 78% de las empresas españolas afirma tener dificultades para encontrar talento e incorporar los perfiles que buscan. Las causas se encuentran en la conjunción del rápido crecimiento de la industria tecnológica y la insuficiente formación en este ámbito durante las etapas previas al mundo laboral. Este mercado, ya tensionado, ha terminado de romperse con la irrupción de la inteligencia artificial.

Según el director de Economía de la Fundación Cotec, que ha presentado un mapa del empleo en este sector a partir de las estadísticas de la Seguridad Social, “las ramas más tecnológicas crecen en empleo a mayor velocidad que el resto y, en la última década, acumulan un aumento del 48% en su volumen de afiliados frente al 27% observado en el conjunto de la economía”.

De acuerdo con los datos de la Seguridad Social utilizados por Cotec, el 7,7% de los afiliados en España trabajan en empleos intensivos en tecnología, una proporción lejana aún de la media europea (10,7%) e insuficiente en un sector que representa el 20% del PIB nacional.

Juan Luis Moreno, director de innovación de la escuela de negocios The Valley, apuesta por “crear, mantener y atraer talento”. En este sentido, Moreno aboga por profesionales “capaces de adaptarse a los cambios” y empresas que “inviertan en planes de formación que garanticen una correcta gestión del talento interno, de forma que se consiga tener trabajadores potenciados y no reemplazados”.

Al contrario que Moreno, Bobby Ford no se encuentra en el ámbito de la formación (es el máximo responsable de seguridad en HP), por lo que no se le presupone interés comercial en ella. Sin embargo, coincide con el directivo español: “Podemos educar, enseñar y capacitar a las personas para crear más talento del que realmente tomamos. Somos agresivos a la hora de ser creadores de talento y no tomadores de talento”.

Sin embargo, para muchas pequeñas y medianas empresas, esta solución no es válida. Daniel Gregg, fundador de una empresa familiar especializada en programas para la gestión de centros sanitarios, lamenta: “Yo formo a mis trabajadores y viene una empresa con más capacidad económica y me los roba a base de talonario”.

Ford admite que el salario se ha convertido en un arma de la batalla por el talento tecnológico. “La inflación salarial es algo real. Con eso en mente, estoy buscando cómo podemos identificar soluciones”.

Esa “inflación salarial”, que ya distorsiona el mercado, es más grave entre hombres y mujeres. Según el último Informe sobre Empleabilidad y Talento Digital de las fundaciones VASS y Universidad Autónoma de Madrid, las trabajadoras tecnológicas cobran un 7,5% menos que sus compañeros. Unido a otros factores, como la falta de una carrera profesional definida o de mentores, ha supuesto que las mujeres solo representen el 23,47% del sector. Aumentar la participación femenina en itinerarios formativos tecnológicos y reducir la persistente brecha salarial pueden aportar una solución a la escasez de personal preparado.

“Pese a que ha habido avances notables en los últimos años, contar solo con un 23% de mujeres en perfiles TIC es claramente insuficiente para alcanzar una paridad efectiva en el sector, algo indispensable si se pretende aprovechar la gran oportunidad que supone el nuevo paradigma de la transformación digital”, afirma Antonio Rueda, director de la fundación VASS. Y añade: “Fundamentalmente, nos enfrentamos dos retos; por un lado, que la mujer considere este sector como un buen cobijo dentro del nuevo mapa de ocupaciones, en continua transformación; y por otro, que se lleven a cabo dentro del sector cambios estructurales y motivacionales en las organizaciones que permitan evitar su estancamiento profesional”.

Adela de Toledo, directora de la tecnológica Pure Storage Iberia, resume la situación: “Cualquier empresa que se embarque en un viaje de transformación digital, por ejemplo, desplegando IA en toda su organización, se va a encontrar con escasez de habilidades. Sencillamente, no hay suficientes científicos de datos u otros profesionales con las habilidades pertinentes disponibles para hacer frente a la demanda y los que tienen las habilidades adecuadas son difíciles de conseguir y exigen salarios elevados. Es probable que esto siga siendo un problema importante durante los próximos cinco o diez años”.

La solución para De Toledo coincide con la del resto de expertos: “Las organizaciones no sólo tendrán que invertir fuertemente en talento a través de la contratación, sino también invertir en la formación de su mano de obra existente para desarrollar más habilidades internamente. Si no lo hacen, no harán más que ampliar la brecha de competencias en las organizaciones modernas”.

La directiva entiende que la formación debe ser “accesible a todos los empleados, incluidas las mujeres”. Y también apuesta por promover referentes femeninos para atraer a las trabajadoras a este campo y “desafiar estereotipos arraigados”, así como “abordar cuestiones como la conciliación de la vida laboral y familiar y ofrecer oportunidades de desarrollo profesional”.

Maya Horowitz iba para psicóloga hasta que se le cruzó en el camino el servicio militar, obligatorio en Israel, su país de origen. Allí conoció y le formaron en el mundo de la defensa informática y hoy es vicepresidenta de investigación en la empresa internacional de ciberseguridad Check Point Software Technologies. “Cambió mi vida y entendí que la tecnología también es para mí. Hay mucho que aprender y se trata de educación, para que las niñas puedan desarrollar las habilidades, y mostrarles que hay mujeres en este sector, que hay impulso”.

Francisco Criado, compañero de Horowitz en una de las vicepresidencias de la misma compañía, comparte la idea de “reposicionar el talento y enseñar a la gente”. Cree que el mundo tecnológico está cambiando y que la inteligencia artificial permite reubicar dentro de una organización a perfiles que no eran tan técnicos al asumir la máquina labores que antes exigían reglas muy complejas. “No obstante, no creo que sea una solución rápida”, admite. “Todavía vamos a sufrir una escasez de habilidades durante mucho tiempo y veremos a dónde nos lleva la IA generativa, que no lo va a solucionar por completo, pero, en algunos casos, puede que reduzca la necesidad de personas en ciertas tareas. Puede que cierre la brecha en el futuro”.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites

_

A Adrián, un joven de 15 años de San Fernando de Henares (Madrid), le ofrecieron “dinero gratis” en el centro comercial Plenilunio. Era septiembre de 2022. Había acudido con un grupo de amigos a un burger y la oferta del “dinero” era de un comercial de Worldcoin, una nueva criptomoneda que requería una foto del iris para darse de alta. Adrián no le dio mucha importancia: “La verdad es que con 15 años solo me quedé con lo de dinero gratis”, dice. Nadie les preguntó la edad ni les pidió documentación.

Todo el grupo de adolescentes se dio de alta. Durante más de un año Adrián fue recopilando monedas digitales, que entonces valían solo unos céntimos. A finales de 2023 su valor empezó a subir. En febrero de 2024 Adrián había reunido 731 euros. Adrián quería ese dinero en efectivo, pero como era menor no podía abrirse una cuenta en el banco para sacarlo. Un empleado de Worldcoin en Plenilunio, a quien conocía de San Fernando, se ofreció a liquidárselo a cambio de un 10% de comisión. Adrián aceptó y nunca más vio el dinero.

La Agencia Española de Protección de Datos (AEPD) prohibió el 6 de marzo de forma cautelar que Worldcoin siguiera recogiendo iris de españoles. La AEPD había recibido 13 reclamaciones que denunciaban información insuficiente o captación de datos de menores. La compañía dice que nunca ha pretendido recoger datos de menores: “Worldcoin siempre ha requerido que los individuos tengan al menos 18 años para obtener un World ID [el documento virtual que se consigue con la foto del iris y permite reunir monedas], como queda claro en los términos de servicio”, dice a EL PAÍS un portavoz de Tools for Humanity, la organización detrás de la moneda.

La app pedía confirmar la edad, pero era fácil mentir si un menor aspiraba a ese “dinero gratis”. Worldcoin optó por instaurar en diciembre de 2023 la comprobación de edad en cada lugar de España donde se tomaran fotos de iris por una noticia sobre “un par de menores”. El ejemplo de Adrián permite pensar que ese “par de menores” fueron en total bastantes más. Justo este miércoles, cuando EL PAIS preguntó a Worldcoin por este caso, la organización publicó un post donde extendía esta comprobación a todo el mundo: “Desde ayer, este proceso se implementó globalmente. Este avance, así como la capacidad de desverificar los Worlds ID, se desarrollaron en consulta con expertos externos en privacidad y seguridad, incluida la Oficina Estatal de Baviera para la Supervisión de la Protección de Datos”, dice un portavoz. La compañía Tools for Humanity, impulsora de Worldcoin y cofundada por Sam Altman, tiene su sede europea en Alemania, de ahí que la autoridad pertinente para estos asuntos sea la de Baviera, con quien colabora la AEPD. La opción de desverificar el World ID borrando permanentemente el código creado a partir del iris de un usuario era otra de las peticiones de las agencias de protección de datos.

Aquí nadie se ríe

Para Lidia Fernández, madre de Adrián, el problema de la edad es solo uno. “Se han reído en mi cara, no ya solo de mi hijo, y tengo 50 años”, dice. La estafa que ha sufrido Adrián muestra los peligros de una organización para la captación de datos con más agujeros de los que parece. La astucia y picaresca de un puñado de jóvenes muestra que no es fácil crear una criptomoneda que “regale dinero” sin afrontar muchos otros peligros.

En diciembre, antes de que Worldcoin se popularizara, Adrián había reunido ya monedas por un valor de más de 200 euros. Fue a Plenilunio a preguntar a la gente de Worldcoin. Allí se encontró a E., un joven que conocía porque un amigo frecuenta la piscina donde Adrián hace de socorrista los veranos. Le preguntó como cambiar el dinero sin tener acceso a un banco y E. le dijo que él se lo hacía por un 10% de comisión. Adrián aceptó y al día siguiente tenía el dinero. Aquella facilidad se convirtió luego en un anzuelo para una cantidad mayor.

En febrero fue a pedir ayuda de nuevo, pero ahora había reunido 731 euros. Adrián había recogido las monedas de su madre y otra familiar y había seguido ingresando gracias a los regalos de la aplicación por conseguir nuevos usuarios. La moneda además había llegado a tener un valor de más de 8 euros. Hasta la suspensión de la AEPD unos 400.000 españoles se habían fotografiado el iris a cambio de “dinero gratis”. “Lo del ojo no me da miedo porque yo le doy mi ojo al teléfono, está en internet, me da igual”, dice Fernández.

Lo que no le da nada igual es el dinero. E. dijo que no podría devolverlo si no le daban 200 euros extra para desbloquear una tarjeta. Fernández le hizo un bizum a un conocido de E. para que quedara rastro: “Cuando le iba a hacer el bizum ya me olía mal, pero mi hijo no quería perder los 731 euros”, explica. EL PAÍS ha intentado recoger la versión del presunto estafador, pero ha colgado el teléfono después de recibir la llamada de este periódico.

Cuando E. siguió negándose a devolver el dinero y bloqueó a Adrián en WhatsApp, Fernández no pudo más: “Empiezo a gritar por casa que me diera los 200 euros o que iba a buscarle, conozco a sus padres”. Ambas familias viven apenas a dos calles de distancia. Fernández recibió el dinero por bizum desde la cuenta de otro chico mientras aún gritaba por casa.

E. y Adrián han intercambiado docenas de mensajes. E. ha puesto varias excusas: “el dinero no llegó”, “si eres menor no puedes tener una cuenta de Worldcoin”, pero quizá la más curiosa fue alegar que, precisamente, Worldcoin es dinero gratis y no vale nada: “Tu madre ya tiene el dinero. Esto lo has ganado porque era un proyecto, no es dinero trabajado. Tu madre ya tiene el dinero así que se acabó”, le escribió por WhatsApp.

El límite fue la extorsión

El límite llegó hace una semana. Había pedido tiempo y Fernández y su hijo decidieron esperar: “Socio, no tengo dinero, haz lo que quieras, ahora tengo demasiados problemas para estas tonterías, no me ha llegado ningún dinero”, escribió E. Tras la espera y varios intentos de contactar para saber si llegaría el dinero, E. amenazó con denunciar a Adrián y a su familia por acoso y extorsión. La madre, Lidia Fernández, dijo basta: “Le denuncio cuando al final dice que va a denunciar a mi hijo por extorsión. Entonces ya digo a tomar por saco, vamos a la comisaría”, dice Fernández. La denuncia fue cursada el pasado viernes y de momento no ha habido ninguna otra novedad.

Adrián y E. encontraron otro camino que muestra riesgos en el proceso de captación de usuarios de Worldcoin. Cada usuario tiene un código con el que puede invitar a cinco personas. Cada vez que se usa su código recibe monedas. Adrián reunió códigos de otras siete personas y fue a Plenilunio para que nuevos usuarios lo emplearan al darse de alta. Uno de los métodos posibles era convencer a E. para que se lo diera a la gente antes de hacerles la foto. Pero E. quería el 50% y nunca llegaron a un acuerdo. Los empleados que fotografían los ojos, como E., son responsabilidad de los operadores subcontratados, dice la compañía.

También, dicen, hacen controles anónimos de los sitios y esos empleados reciben una formación continua. Tools for Humanity también dice que su departamento de apoyo al cliente responde a cualquier queja. Lidia Fernández escribió a ese departamento. Como no obtuvo respuesta, buscó incluso al responsable para Europa de la compañía, Ricardo Macieiras, y le escribió por Facebook. También quedó sin respuesta. “Es imposible hablar con ellos”, dice.

El interés declarado de Tools for Humanity en el iris es para poder demostrar la humanidad de cada usuario de internet en un mundo donde las máquinas, gracias a la IA, serán capaces de reproducir la mayoría de comportamientos de personas. “Worldcoin es una nueva tecnología que, comprensiblemente, plantea muchas preguntas. El proyecto está trabajando en estrecha colaboración con su autoridad de datos competente para abordar sus preguntas. Las personas que apoyan el proyecto Worldcoin también agradecen preguntas y oportunidades para explicar cómo la tecnología utilizada por el proyecto Worldcoin para demostrar la humanidad proporciona a los consumidores un control y una elección incomparables con respecto a sus datos”, dice a EL PAÍS un portavoz de la compañía.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites

_

Figure 01 es el prototipo más cercano al humanoide que la ciencia ficción había anticipado. El robot, que ha recibido este mes de marzo el apoyo inversor y tecnológico de la compañía de inteligencia artificial Open AI, el gigante de los procesadores Nvidia y Jeff Bezos, fundador de Amazon, es capaz de discernir objetos no solo por su forma sino por su funcionalidad, desarrollar tareas diversas ajustando sus movimientos a la resistencia de aquello que manipula, interaccionar con el entorno e incluso evaluar su desempeño. Figure se acerca en apariencia a las máquinas de Yo, robot y aún está lejos de Robocop, pero es un ejemplo de una fulgurante carrera tecnológica: el embodiment, un término inglés que podría traducirse por encarnación o personificación y que supone, según Luis Merino, profesor y director del Service Robotics Lab (Laboratorio de Robótica de Servicios) de la Universidad Pablo de Olavide, romper los límites de la “pasividad del aprendizaje” automático para acercarse al humano, donde la interacción con el entorno es la clave.

La apuesta de las grandes compañías por esta tecnología es clara. Nvidia, además de su apoyo financiero a Figure, ha anunciado GR00T, una plataforma específica para robots humanoides, en cuyo desarrollo hay una acelerada carrera en la que participan, entre otras, empresas como 1X Technologies, Agility Robotics, Apptronik, Boston Dynamics, Figure AI, Fourier Intelligence, Sanctuary AI, Unitree Robotics y XPENG Robotics.

Dennis Hong, fundador de RoMeLa, (de espaldas) juega con el robot Artemis en el Gitex de Dubái.

Dennis Hong es fundador de RoMeLa y creador de Artemis, un robot androide que juega al fútbol como demostración de la versatilidad conseguida en sus capacidades de movimiento. Hong explica el salto cualitativo de los nuevos desarrollos: “El 99,9% de los robots que existen hoy en día utilizan servomotores y son muy rígidos. Son excelentes para la automatización de fábricas o para tareas únicas domésticas [como los aspiradores autónomos], pero este robot [Artemis] imita el músculo biológico y le permite ser ágil, rápido, robusto y bastante inteligente”.

“Esta inteligencia”, según explica, le permite reconocer un buen plan y tomar decisiones de forma autónoma. “El futuro”, concluye, “es que pueda ejecutar cualquier cosa que un humano pueda hacer”. Para demostrarlo, Hong sujeta por la espalda a Artemis y lo empuja para forzarle a reaccionar ante un imprevisto, prueba que el robot supera.

Es un paso muy significativo frente a modelos como los de Deep Robotics, que desarrolla cuadrúpedos para trabajos industriales y de rescate. Vera Huang resalta los “avances motores, como la capacidad de saltar o subir escaleras”, pero admite que no están dotados de la última generación de inteligencia.

Robot Atlas de Boston Dynamics
BOSTON DYNAMICS
19/01/2023
BOSTON DYNAMICS (BOSTON DYNAMICS)

Cassie, de Boston Dynamics, ha sido preparado para recorrer diferentes superficies y ejecutar grandes saltos sin conocer previamente el terreno. Lo hace a través de la técnica de “aprendizaje por refuerzo”. “El objetivo es enseñar al robot a aprender a hacer todo tipo de movimientos dinámicos de la forma en que lo hace un humano. Cassie utiliza el historial de lo que ha observado y se adaptara rápidamente al mundo real”, explica a MIT technology review Zhongyu Li, de la Universidad de California y participante en el desarrollo.

Los investigadores utilizaron una técnica de IA llamada aprendizaje por refuerzo para ayudar a un robot de dos patas. El aprendizaje por refuerzo funciona recompensando o penalizando a una IA mientras intenta llevar a cabo un objetivo. En este caso, el enfoque enseñó al robot a generalizar y responder en nuevos escenarios, en lugar de congelarse como habrían hecho sus predecesores.

“El siguiente gran paso es que los robots humanoides hagan un trabajo real, planifiquen actividades y se relacione con el mundo físico de maneras que no solo interaccionen con los pies y el suelo”, dice Alan Fern, profesor de Ciencias de la Computación en la Universidad Estatal de Oregón.

En este sentido avanza Figure, un robot de 1,70 metros de alto, 60 kilos, con capacidad para cargar un tercio de su peso, eléctrico, con cinco horas de autonomía y una velocidad de 1,2 metros por segundo. Pero lo que lo hace diferente, es su capacidad de desarrollar distintas tareas, discernir personas y objetos, actuar autónomamente y, sobre todo, aprender. La compañía defiende que su apariencia humana es necesaria porque “el mundo está diseñado para la misma”.

Figure es un ejemplo de encarnación o personalización. “No podemos separar mente y cuerpo. El aprendizaje los aúna. La mayoría de robots procesan imágenes y datos. Los entrenas y no tienen una interacción. Sin embargo, los humanos aprendemos interaccionando con nuestro entorno, porque tenemos un cuerpo y tenemos unos sentidos”, explica Merino.

Su equipo ya ha desarrollado robots de asistencia que, cuando actúan como guías turísticos, adaptan sus explicaciones a las reacciones de la gente, o actúan de acuerdo con los sentimientos de un anciano al que ayudan, o evitan vulnerar la distancia social de los humanos con los que trabajan.

Pero en la mayoría de los robots actuales, incluso los que cuentan con inteligencia artificial, “el aprendizaje es pasivo”, según relata el catedrático de la UPO. Cassie, además del desarrollo de la red neuronal artificial, ha desarrollado su destreza a través de aprendizaje por refuerzo, una técnica parecida a la utilizada para el adiestramiento de mascotas.

Merino profundiza en este sentido. “No le damos al robot una descripción explícita de lo que tiene que hacer, sino que aportamos una señal cuando se comporta mal y, en lo sucesivo, lo evitará. Y al contrario. Si lo hace bien, le damos una recompensa”. En el caso de las mascotas puede ser un juguete, una caricia o una golosina. Para los robots es un algoritmo que intentarán alcanzar el mayor número de veces con su comportamiento.

El investigador aclara que este sistema supone, además de un avance en las capacidades robóticas, una fórmula de hacerlos más eficientes, ya que precisan de menos energía para procesar millones de datos vinculados a todas las variables posibles. “Es muy difícil programar a un robot para todas las circunstancias a las que se puede enfrentar”, incide Merino.

“Llevamos decenas de años con robots en las fábricas haciendo cosas de forma algorítmica y repetitiva. Pero si queremos que sean más generales hay que dar un paso más”, concluye. La carrera robótica va en esta dirección.

Y como todo avance digital, la seguridad será un elemento determinante. Cualquier sistema, hasta un simple electrodoméstico conectado a la nube, puede ser víctima de ataques. En este sentido, Nvidia, presente en los desarrollos de robótica más avanzados, ha firmado un acuerdo de colaboración con Check Point para mejorar la seguridad de la infraestructura de inteligencia artificial en la nube.

También Amazon Web Services (AWS) ha anunciado su colaboración con Nvidia para utilizar la plataforma de esta última compañía, Blackwell, presentada este año en su conferencia de desarrolladores GTC 2024. El acuerdo incluye el uso conjunto de infraestructuras de ambas tecnológicas en desarrollos que incluyen la robótica.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

El impacto de la inteligencia artificial (IA) es uno de los principales temas de debate en Europa. Y, en relación a la IA, Europa está en una situación muy similar, tal vez peor, a la que estaba respecto de la aeronáutica en 1970.

En 1970, dos fabricantes de aviones comerciales dominaban el mercado. Boeing y McDonell Douglas tenían el 50% y el 35% de cuota de mercado respectivamente, mientras otros fabricantes de aviones ser repartían el 15% restante. En ese momento, algunos gobiernos europeos tomaron una decisión transcendental: crear una empresa europea de fabricación de aviones comerciales capaz de competir con los dos grandes. Hoy en día, 50 años más tarde, también dos fabricantes de aviones comerciales dominan el mercado. Boeing tiene alrededor del 40% de la cuota de mercado, y Airbus tiene alrededor del 60%. Con permiso de China, que en un futuro próximo tendrá su propio fabricante de aviones comerciales.

Una situación similar se produjo a finales de los años 90. EE UU había desarrollado un sistema de posicionamiento global con fines militares que solo ofrecía precisión limitada para usos civiles. Durante la década de los 2000, Europa decidió poner en marcha su propio sistema de posicionamiento global, Galileo, y lo hizo de forma abierta y compatible con el GPS estadounidense, pero ofreciendo la máxima precisión. Este proyecto provocó a la decisión posterior de EEUU de eliminar las limitaciones de su sistema GPS y ofrecer la misma precisión. Hoy día, GPS y Galileo operan simultáneamente, y a partir de la decisión europea de diseñar un sistema abierto se han desarrollado las innumerables aplicaciones de geoinformación disponibles actualmente.

Probablemente en 1970 la mayoría de los analistas económicos habrían predicho que los dos grandes fabricantes, Boeing y McDonell Douglas, se repartirían el mercado de la aviación comercial por muchos años. Sin embargo, Boeing absorbió a McDonell Douglas en 1996, a causa precisamente del ascenso de Airbus. Si los gobiernos europeos no hubiesen tomado la decisiva acción de crear un fabricante de aviones en 1970, su próximo viaje sería probablemente en un Boeing o en un McDonell Douglas. Y si en los años 2000 no hubiesen decidido diseñar el sistema Galileo como un sistema abierto, su automóvil no dispondría de mapas para guiarle por todas las ciudades del mundo.

Volvamos a la inteligencia artificial. En hardware e inteligencia artificial, Europa está en una situación muy similar a la que se encontraba en aeronáutica en 1970 o en GPS en 2000. Los europeos tenemos la misma sensación que entonces: nunca habrá una compañía europea capaz de competir con los líderes del mercado. ¿O sí?

El problema de la inteligencia artificial es algo más complejo, porque se basa en la combinación de hardware y software. Y en los dos campos, Europa acumula un importante retraso. El desarrollo de los modelos más avanzados de la inteligencia artificial necesita de procesadores muy avanzados como los desarrollados por Nvidia, AMD e Intel. En Europa, ni diseñamos ni fabricamos este tipo de procesadores; dependemos totalmente de la adquisición de estos chips a un coste muy elevado sobre el que no tenemos ningún control.

Por otra parte, el diseño del software de IA que necesitan los actuales y futuros sistemas con más de algunos billones de parámetros de entrada es muy difícil de replicar en Europa, aunque contemos con los chips más avanzados del momento. Y para entrenar esos sistemas necesitamos datos. En Europa tenemos datos, aunque muchos de ellos, los personales, son secuestrados por las grandes empresas tecnológicas estadounidenses, las GAFAM (Google, Amazon, Facebook, Apple y Microsoft), para desarrollar su modelo de negocio con nuestra inconsciente e imprescindible contribución.

Ante esta situación, Europa lleva la iniciativa en regular la Inteligencia Artificial, pero, a la vista de nuestro retraso tecnológico, podríamos convertirnos en los árbitros de un partido en el que no tenemos jugadores para competir. Sin embargo, Europa puede recuperar el retraso tecnológico en Inteligencia artificial si es capaz de seguir los modelos de Airbus y de Galileo.

Europa empieza a ser consciente, con su iniciativa Chip.act, del reto que representa el desarrollo de nuevos chips, y, por otra parte, hay que reconocer lo acertado de la visión del director general Roberto Viola de establecer en Europa las AI factories en lugares estratégicos tales como los grandes centros de supercomputación y otros. Intentarán aprovechar al máximo el uso de los datos europeos para aumentar la competitividad de nuestras empresas e investigadores. Pero esto no es suficiente. Igual que en el caso de Galileo, Europa debe apostar por el desarrollo de tecnología libre y la colaboración internacional. Desde Barcelona, el BSC defiende que Europa desarrolle todo el hardware, desde los chips para IoT hasta los necesarios en los grandes supercomputadores y máquinas de inteligencia artificial, usando la idea de hardware Abierto que permite la tecnología RISC V.

Por otra parte, consideramos que será muy difícil desarrollar los siguientes modelos de IA generativa por investigadores de instituciones públicas; necesitamos colaboración a nivel mundial. Y necesitamos la competitividad que ofrece el sector privado. Aquí es donde necesitamos el modelo Airbus. Europa debe crear una gran empresa europea para ofrecer software y servicios de inteligencia artificial siguiendo el modelo de Airbus. Una compañía capaz de ofrecer todos los servicios que ofrecen las GAFAM: buscador de internet, suite ofimática, servicios de almacenamiento en la nube y servicios de inteligencia artificial. Tomará tiempo, está claro. Se necesitarán recursos, por supuesto. No será rentable en algunos años, sin duda. Pero no debemos pensar en 2030. Debemos pensar en 2070. ¿Cuáles serán las principales compañías tecnológicas en 2070? ¿Será alguna de ellas europea?

Crear esta empresa puede parecer arriesgado, pero ¿cuál es el coste de no crearla? La dependencia tecnológica absoluta y permanente. Aquí el hecho de que Europa lidere la regulación de los aspectos éticos de la AI es una ventaja. Una compañía europea de AI puede desarrollar sus productos bajo estas regulaciones, convirtiéndose en consecuencia en la primera opción para las empresas y gobiernos europeos para cumplir la legislación europea. La Comisión Europea y los gobiernos europeos disponen de los recursos. Disponemos de una Red Europea de Computación de Altas prestaciones (The European High Performance Computing Joint Undertaking) que lidera la investigación en supercomputación y puede ser una excelente base sobre la que desarrollar esta compañía. Tal vez haya que adaptar la regulación sobre la competencia, pero es el momento de reconocer que, como en el caso de la aeronáutica, la regulación de la competencia se debe aplicar al mercado global, no solo al europeo si impide que una compañía europea compita con las empresas dominadoras del mercado.

Para acabar, un dato. Baidu fue creada en 1999, y en 2024 es el buscador dominante en China. Sin negar que el mercado chino es mucho más cerrado que el europeo, lo cierto es que Baidu ofrece las mismas prestaciones que las GAFAM. China lo ha hecho. ¿Por qué no Europa?

Necesitamos chips europeos, y necesitamos crear AIbus.

Daniel Crespo es rector de la Universitat Politécnica de Catalunya.

Mateo Valero es director del Barcelona Supercomputing Center.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

La periodista Kashmir Hill recibió en noviembre de 2019 el soplo de que una startup llamada Clearview AI decía ser capaz de poder identificar a cualquiera a partir de una imagen. Su fuente decía que la compañía había recogido miles de millones de fotos de redes sociales como Facebook, Instagram o LinkedIn —sin avisar ni a las plataformas ni a los interesados―, y que si introducías en la app la foto de alguien, te mostraba todos los sitios web en los que aparecía esa persona, además de su nombre completo y de información personal.

Nadie se había atrevido a desarrollar nada parecido hasta la fecha. Una aplicación capaz de identificar a extraños era demasiado. Podía usarse, por ejemplo, para fotografiar a alguien en un bar y saber en pocos segundos dónde vive y quiénes son sus amigos. Hill, reportera en The New York Times, publicó la historia de esta pequeña empresa, que en pocos meses pasó de ser una total desconocida a contar con el apoyo de Peter Thiel, uno de los padrinos de Silicon Valley, y a convertirse en el objeto de deseo de los cuerpos de policía de EE UU y del extranjero. Llegó hasta Hoan Ton-That, el impenetrable ingeniero responsable de la herramienta que montó junto a Richard Schwartz, un político con una larga trayectoria entre bambalinas en el Partido Republicano. Su investigación siguió hasta dar forma a su libro Your Face Belongs to Us (Tu cara nos pertenece, editado por Random House en 2023 y sin traducción al español hasta el momento).

“Me pareció que los fundadores de la startup eran personajes insólitos y fascinantes, y que la historia captaba algo esencial en esta industria: ese deseo de crear nuevas tecnologías realmente transgresoras sin tener en cuenta sus implicaciones sociales”, explica por videoconferencia desde Nueva York. Nacida hace 43 años y criada en Florida, Kashmir Hill, que se llama así en honor a uno de los temas más míticos de Led Zeppelin, trabajó en publicaciones como Gizmodo, Forbes o The New Yorker antes de unirse al Times en 2019. Le llamó la atención también que una empresa tan joven pudiera dominar en poco tiempo una tecnología tan compleja como el reconocimiento facial.

PREGUNTA. ¿Qué tienen de particular los sistemas automáticos de reconocimiento facial? ¿Por qué le interesa esta tecnología?

RESPUESTA. Es clave para vincular a las personas del mundo real a lo que se sabe sobre ellas en internet. Un uso descontrolado del reconocimiento facial erradicaría el anonimato, ya no se podría navegar por el mundo sin que la gente lo supiera todo sobre nosotros. Los gobiernos sabrían dónde estamos y qué hacemos todo el tiempo. Eso ya sucede en China. Rusia lo usa para identificar a quienes se manifiestan contra la invasión de Ucrania. El rostro es, esencialmente, el último bastión de la privacidad. Volviendo a China, han desarrollado una lista roja para quienes están en el poder y no quieren que les vean. Estar en esa lista significa ser invisible para el sistema de vigilancia, la eliminación de los registros de las cámaras. Es muy revelador que no ser visto sea un privilegio exclusivo de los poderosos.

P. ¿Cree que la historia de Clearview AI es representativa de la del reconocimiento facial?

R. Sí. La tecnología de reconocimiento facial es un arma de doble filo. Se puede usar para resolver crímenes, encontrar asesinos y violadores, pero también para rastrear a los disidentes o para obtener información sobre actrices porno y llegar hasta ellas. Los fundadores de Clearview AI tenían ideas muy preocupantes sobre qué hacer con esta herramienta. Creían que analizando el rostro de una persona se podía inferir su inteligencia o su propensión al consumo de drogas. Han tratado con Hungría, que quería su producto para perseguir a activistas e identificar a los liberales. Así que, en cierto sentido, es casi tranquilizador que al final solo trabajen con la policía.

En China, el anonimato es un privilegio exclusivo de los poderosos

P. Clearview AI ha sido multada o prohibida en varios países. ¿Cuál es su situación actual?

R. Siguen operando en Estados Unidos. Trabajan con muchas fuerzas del orden locales, así como con el Departamento de Seguridad Nacional y el FBI. Están un poco asediados legalmente, pero han tenido algunos éxitos, como que un tribunal de Reino Unido haya anulado una multa que le impuso el regulador. En última instancia, el hecho de que hayan decidido orientarse exclusivamente a las fuerzas del orden les ha permitido evitar muchos resultados negativos. Veremos qué pasa en los demás países europeos.

P. ¿Cree que el boom de la inteligencia artificial (IA) generativa ha servido como cortina de humo para la expansión de empresas como Clearview AI?

R. La gente está muy centrada en la IA generativa, y eso ha desviado la atención, tal vez por la forma en que esa tecnología amenaza nuestra privacidad. Pero en cierto modo, las preocupaciones son las mismas. El New York Times, donde trabajo, ha demandado a OpenAI por usar todos nuestros artículos sin pedir permiso. De forma similar, la base de datos de Clearview AI está compuesta por decenas de miles de millones de imágenes de nuestras caras sacadas de internet sin el consentimiento de nadie. Me preocupa mucho el reconocimiento facial combinado con la IA generativa. Puedes generar el rostro de alguien en una imagen pornográfica o en algún tipo de situación embarazosa y simplemente publicarlo, sabiendo que algún día alguien buscará a esa persona con una herramienta de reconocimiento facial y la encontrará. Escribí el libro porque quiero que la gente comprenda lo poderosa que se ha vuelto la tecnología de reconocimiento facial. Ahora es realmente trivial identificar a alguien y encontrar todas sus fotos en internet. Y creo que eso tiene implicaciones muy preocupantes para el futuro.

P. ¿Cuál es la percepción social del reconocimiento facial en EE UU?

R. Existe una resistencia real al uso de la tecnología de reconocimiento facial en vivo. Los legisladores dicen que rechazan la idea de buscar personas en tiempo real en las calles, algo que está sucediendo, por ejemplo, en el Reino Unido. Al mismo tiempo, creo que la mayoría acepta usar esta tecnología después de que se haya cometido un delito para tratar de identificar al culpable.

P. ¿Cómo es posible que una empresa que basa su negocio en un producto construido a partir de la descarga no consentida de millones de fotografías de rostros humanos pueda operar como si nada?

R. Cuando escribí por primera vez sobre Clearview AI, tenían 3.000 millones de fotos. Cuando terminé el libro, creo que tenían 20.000 millones. Ahora, tienen 40.000. Hay países que han dicho que lo que están haciendo es ilegal. No deberían recopilar fotos de la gente sin su consentimiento, pero siguen haciéndolo y nadie los detiene. En EE UU tenemos algún precedente, por lo que esa ilegalidad no está tan clara. Estamos viendo lo mismo con la IA generativa: ¿se debe permitir a estas empresas recolectar lo que quieran y usarlo como quieran para lucrarse? Creo que esa es una de las preguntas más importantes de nuestro tiempo.

Eric Schmidt, presidente de Google en 2011, dijo que el reconocimiento facial era la única tecnología que su compañía desarrolló y no lanzó

P. Señala en el libro que Google y Facebook tenían su propia tecnología de reconocimiento facial ya desarrollada antes que Clearview AI, pero decidieron no lanzarla.

R. Realmente me pareció sorprendente. Son empresas que han sido muy escrutadas por posibles abusos de privacidad, y eso les ha hecho más cuidadosas. También creo que estaban preocupadas por la tecnología en sí. Sus ingenieros se alarmaron y vieron las desventajas obvias de divulgar algo así. Eric Schmidt, presidente de Google en 2011, dijo que el reconocimiento facial era hasta la fecha la única tecnología que su compañía desarrolló y no lanzó. Me ha parecido interesante, por cierto, que haya sucedido lo mismo ahora con la IA generativa: Google tenía su propio ChatGPT, pero pensaron que el mundo no estaba preparado para esto todavía.

P. ¿Cree que vamos hacia una sociedad hipervigilada?

R. Vivimos en un mundo en el que hay cámaras por todas partes, pero no tienen sistemas de reconocimiento facial. Creo que en Europa tenéis ese debate ahora mismo: si secuestran a tu hijo o hay un fugitivo suelto, ¿deberíamos poder encontrarlos en tiempo real? Una vez que configuras esa infraestructura, podría usarse de muchas otras formas. Creo que aún podemos decidir si permitimos o no que este sea un mundo en el que nos rastreen por la cara todo el tiempo, cada vez que salimos de nuestras casas. Y es una decisión que hay que tomar ahora mismo.

Poder identificar a alguien y encontrar todas sus fotos en internet tiene implicaciones muy preocupantes para el futuro

P. ¿Cómo trazamos la línea entre lo que es un uso adecuado y no adecuado del reconocimiento facial?

R. Creo que un elemento importante ahora mismo es retroactivo versus proactivo. ¿Lo usas para resolver un delito que ya se ha cometido o para tratar de prevenir delitos o encontrar personas en tiempo real? Esa es una gran brecha, es la que estamos atravesando ahora mismo. Otro punto clave es la seguridad. En Estados Unidos, si eres policía, puedes usar reconocimiento facial para resolver crímenes. Si eres una empresa, puedes usarlo para tratar de identificar a los ladrones de tiendas y expulsarlos. Lo que incomoda a la gente son las aplicaciones ajenas a la seguridad.

P. ¿Cree que la ciudadanía se acostumbrará y tolerará esta tecnología?

R. Tendremos enfrentarnos a distintos casos de uso y ver cuán cómodos son. Fue muy impactante cuando en el Madison Square Garden se comenzó a detener en la puerta a los abogados de las marcas que les habían demandado. La gente se dio cuenta de que el reconocimiento facial podía usarse de una manera alarmante. Hubo un tiempo en el que se grababan las llamadas telefónicas de la Casa Blanca. Se vio con todas esas cintas de Richard Nixon haciendo sus planes para el Watergate. Eso causó alarma social y se aprobaron leyes que ilegalizaron las escuchas telefónicas, excepto las que contaban con orden judicial. Por eso, las cámaras de vigilancia solo graban vídeo y no sonido: porque decidimos que no queríamos vivir en un mundo en el que todo lo que dices quede grabado. Creo que pasará lo mismo con nuestras caras.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites

_

La estrategia es de primero de marketing: primero se crea la necesidad y luego se vende la solución. Las herramientas de trabajo de Google, como Gmail, Drive, Calendar, Meet o Docs, las utilizan 3.000 millones de usuarios, muchos de ellos de forma gratuita con limitaciones. Pero 10 millones de ellos (40% de individuos y 60% de empresas) pagan por organizarse con estas aplicaciones. Y ahora que forman parte de la vida cotidiana de millones de personas y se ha creado la necesidad, irrumpe la inteligencia artificial con la promesa de mejorar esta experiencia. Pero la solución no será gratuita, sino que cada ventaja añadida costará 10 dólares más al mes, unos 9,2 euros. La empresa ha hecho este anuncio este martes en Las Vegas, donde celebra el encuentro anual de la compañía para presentar las novedades digitales (Google Next). Entre ellas, la reacción de la multinacional a Sora, la herramienta de Open AI capaz de crear vídeos de alta calidad a partir de simples peticiones de texto. La respuesta es un editor audiovisual, llamado Vids, e Imagen 2, similar a la competidora Sora, de Open AI.

La mayoría de los usuarios utilizan de forma limitada, pero gratis, algunas de las 11 aplicaciones incluidas en la plataforma de trabajo de Google Workspace (Gmail, Drive, Calendar, Chat, Docs, Sheets, Slides, Forms, Sites, Keep y Apps Script). Otros pagan al mes 5,75 euros (Business stater), 11,50 euros (standard) o 17,25 euros (Plus). Thomas Kurian, director general de Google Cloud, ha anunciado este martes la renovación de este popular y masivo conjunto de herramienta con Gemini for Workspace, la inteligencia artificial de Google.

Kurian argumenta que la innovación responde a la demanda de los usuarios. Según afirma, “el 70% utiliza la función Ayúdame a escribir y el 75% crea presentaciones en Slides”. La nueva “hornada de innovaciones y mejoras en Google Workspace con Gemini” incluye un complemento para reuniones y mensajería (10 dólares al mes) que permite, como ya hace la versión de pago de ChatGPT, tomar notas de reuniones, resumir estas y los chats (aplicaciones de conversación asociadas) y traducción simultánea en 69 idiomas.

Por otros 10 dólares, otro complemento de seguridad permite clasificar y proteger automáticamente los archivos y datos sensibles mediante IA. Según Aparna Pappu, directora general de Google Workspace, “utilizando grandes modelos de lenguaje, se identifica un 20% más de spam [correo basura o no deseado] en Gmail, se revisan 1.000 veces más reclamaciones de los usuarios a diario y se responde un 90% más rápido a los nuevos ataques de phishing [estafa por suplantación]”.

Vídeos

Pero una de las grandes apuestas de Google se orienta a la creación de vídeos. En este sentido, la plataforma de trabajo también incluirá la aplicación Google Vids, que permite elaborar guiones, producir y crear audiovisuales compatibles con el resto de las utilidades de la plataforma. “Vids se lanzará en breve en Workspace Labs y esperamos dar acceso a todos los clientes para finales de este año”, explica Kurian. “Probablemente, en junio”, precisa Aparna Pappu, directora general de Google Workspace.

“Vids es un asistente de vídeo, escritura, producción y edición, todo en uno. Puede generar un guion gráfico fácilmente editable y, después de elegir un estilo, crea un primer borrador a partir de escenas sugeridas con vídeos de archivo, imágenes y música de fondo. También puede ayudar a completar tu mensaje con la voz de narración adecuada, ya sea eligiendo una nuestra preestablecida o utilizando la del usuario”, explica Pappu.

“Todo lo que necesita es un navegador, y ese es el punto clave”, añade la directiva. “No es necesario enviar archivos por correo electrónico de un lado a otro; el equipo puede continuar en la historia al mismo tiempo con los mismos controles de acceso y seguridad de todo el espacio de trabajo,

El lanzamiento de Vids será restringido a subscriptores de Google en sus primeros pasos. “Estamos haciendo un despliegue para nuestros clientes de pago para obtener comentarios de ellos. Este producto está diseñado para un entorno de trabajo, que es donde está nuestra prioridad. Una vez que implementemos esas funciones para nuestros clientes de pago y obtengamos comentarios de nuestros usuarios, consideraremos expandirlo”, precisa Pappu.

Imágenes de rostros y manos creadas con inteligencia artificial a través de la aplicación Imagen 2 de Google.

Imagen 2 frente a Sora

El desarrollo más cercano a Sora también está reservado para los usuarios de Gemini 1.5 Pro, ya disponible en versión preliminar a través de la plataforma Vertex AI para desarrolladores. Se trata de Imagen 2, un modelo de IA que, según Amin Vahdat, directivo de Google Cloud, “brinda la ventana contextual más grande del mundo a los desarrolladores”. “Nuestra familia de modelos de generación de imágenes, ahora se puede utilizar para crear vídeos de cuatro segundos a partir de mensajes de texto, incluyendo la marca de agua digital”.

“Estamos viendo que las organizaciones aprovechan Imagen 2 para generar vídeos de alta calidad y precisión a escala empresarial. “Los equipos creativos y de marketing pueden generar imágenes animadas a partir de un mensaje de texto. Inicialmente, los vídeos serán de 24 fotogramas por segundo (fps) con una resolución de 360×640 píxeles y una duración de cuatro segundos, con planes de mejoras continuas”, explica Vahdat.

El programa está preparado para ofrecer variedad de ángulos y movimientos de cámara manteniendo la coherencia en toda la secuencia e incluyendo filtros de seguridad y marcas de agua digitales mediante SynthID (Google DeepMind). La nueva ley europea de inteligencia artificial obliga a distinguir de forma inequívoca que una creación ha sido generada por inteligencia artificial.

También facilitará en las versiones actualizadas la eliminación de aspectos no deseados en una imagen, la adición de nuevos elementos y la expansión de los bordes para crear un campo de visión más amplio.

Estos desarrollos responden al movimiento de Open AI con Sora, un modelo de inteligencia artificial que crea vídeos a partir de indicaciones con texto de hasta un minuto de duración mientras. Este productor audiovisual se encuentra en pruebas, según explica la compañía, “para evaluar áreas críticas en busca de daños o riesgos” y para obtener sugerencias y propuestas de artistas visuales, diseñadores y cineastas.

Open AI reconoce la necesidad de revisar el desarrollo porque, a pesar del espectacular realismo que ofrece en sus resultados, “el modelo actual tiene debilidades”, como fallos de precisión o alucinaciones como mostrar una escena que suponga la alteración de un objeto que, sin embargo, en los siguientes fotogramas aparece intacto o mezclar espacios o confundir trayectorias.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Las elecciones europeas del 9 de junio, a las que están convocados más de 370 millones de ciudadanos, pueden convertirse en terreno abonado para la desinformación y la manipulación política. Así lo advirtió ya en octubre la Agencia de la UE para la Ciberseguridad (Enisa), donde preocupa y mucho el efecto que pueda tener en el proceso la inteligencia artificial (IA) generativa. Esta tecnología es capaz de producir textos convincentes o vídeos hiperrealistas, lo que se puede usar para propagar ideas interesadas e influir en el voto de los ciudadanos.

Pero la difusión de bulos y de mensajes interesados no es el único problema al que se enfrentan los ciudadanos. Hay partidos políticos que utilizan las herramientas de publicidad digital que facilitan las redes sociales para personalizar y segmentar su mensaje con el objetivo de influir en el voto. Es lo que hizo Cambridge Analytica en las presidenciales estadounidenses de 2016, en ese caso sirviéndose de datos de 80 millones de usuarios captados fraudulentamente a través de Facebook.

La segmentación de audiencias, es decir, dividirlas en grupos que compartan una serie de características, es una práctica legal muy usada en el marketing político. La microsegmentación política, en cambio, que analiza los intereses de individuos, y no de grupos de estos, no está permitida en la UE. El Reglamento General de Protección de Datos (artículo 9.1) prohíbe el tratamiento de datos personales que revelen las opiniones políticas de los ciudadanos. Y eso es exactamente lo que hacen los perfiles ideológicos que elabora la microsegmentación (o microtargeting, en inglés): una especie de ficha política de cada individuo confeccionada a partir de información disponible en el historial de navegación o en sus reacciones en las redes sociales.

Aspecto de una ficha resumen de Who Targets Me, la herramienta que se usará en la campaña De quién soy el blanco, que se usó en la que se expresa la cantidad de veces que el usuario ha sido expuesto a publicidad política personalizada.

Pese a estar prohibida, la publicidad política microsegmentada es una práctica todavía frecuente en Europa. El colectivo especializado en protección de la privacidad Noyb (acrónimo de None of Your Business, No es asunto tuyo en inglés), dirigido por el activista austriaco Max Schrems, presentó el año pasado una serie de denuncias contra varios partidos políticos alemanes por haber recurrido a esta técnica en las elecciones federales de 2021.

En España, todas las formaciones trataron de reformar la Ley Orgánica del Régimen Electoral (LOREG) a través de la Ley Orgánica de Protección de Datos (LOPD, 2018) para permitir que los partidos pudieran recoger de la web y las redes sociales “datos personales relativos a las opiniones de los ciudadanos” de cara a las elecciones de 2019. Un grupo de juristas y de asociaciones presionó al Defensor del Pueblo para que recurriera ante el Tribunal Constitucional este cambio. Y el Constitucional lo tumbó.

“Esa fue la mayor victoria de mi carrera”, recuerda Borja Adsuara, uno de los abogados que impulsaron el recurso. “Conseguimos frenar a unos partidos que se autorizaron a sí mismos a recopilar, de páginas webs y redes sociales, las opiniones políticas de los ciudadanos vinculadas a sus datos personales, es decir, atribuyéndolas a personas físicas con nombres y apellidos”, apunta.

Con todo, hay partidos que siguen apostando por esta técnica, aunque esté proscrita. La red de activistas por los derechos digitales Xnet ha puesto en marcha, junto con una coalición de colectivos y organizaciones europeas con las mismas sensibilidades, la campaña “¿De quién soy el blanco?”. Su objetivo es analizar cómo Facebook e Instagram, las dos redes sociales estrella de Meta, explotan los datos de los usuarios para hacer fichas individualizadas con fines políticos.

La campaña pivota en torno a la herramienta Who Targets Me, una extensión del navegador que permite recopilar, catalogar y visualizar la publicidad electoral personalizada servida a los usuarios de Facebook mientras navegan por esa plataforma. La herramienta rastrea y procesa los datos anonimizados que reciben de campañas y publicaciones en redes sociales, los almacena y posteriormente los procesa.

Cuantos más usuarios se descarguen la extensión, mayor validez tendrán los datos que extraigan los analistas de estos. El objetivo es detectar qué partidos recurren a la microsegmentación y en qué momentos de la campaña. Xnet elaborará un informe con esos datos que publicará una vez pase la cita electoral.

Un hombre sostiene en el aire su móvil con la app de Instagram abierta.Unplash

Expertos y legisladores coinciden en que el microtargeting es una práctica que amenaza al buen funcionamiento de la democracia. Estas técnicas, que usan el análisis de datos digitales para entregar a los usuarios información especialmente adaptada a su perfil, tienen el peligro de poder influenciar seriamente al votante. “Los partidos políticos son el segundo cliente de la industria de la manipulación informativa después de los influencers: compran bots, perfiles de usuarios, etcétera”, explica Simona Levi, fundadora y coordinadora de Xnet. “Las estrategias de microtargeting de los partidos buscan manipularnos psicológicamente, se basan en hacernos llegar la información que queremos ver. Eso crea burbujas informativas. Decirnos lo que queremos oír, y no lo que piensan, no es convencer: es manipular”.

“Cualquier dato sobre las opiniones políticas de una persona está protegido de forma particularmente estricta por el GDPR”, sostiene por su parte Felix Mikolasch, abogado especializado en privacidad de Noyb. “Esos datos no solo son extremadamente sensibles, sino que también permiten la manipulación a gran escala de los votantes, como ha demostrado Cambridge Analytica”, señala.

Desinformación y manipulación en la era de la IA

La Comisión Europea pidió hace dos semanas a X, TikTok, Facebook y otras grandes plataformas que tomen medidas para ponerle coto a la circulación de contenidos sospechosos que busquen condicionar a los votantes. Bruselas, que teme un aluvión de interferencias y desinformación, ha publicado una serie de directrices para plataformas con más de 45 millones de usuarios activos en la UE dirigidas a combatir los contenidos nocivos impulsados por IA y la publicidad política engañosa. Google, Meta y TikTok, por ejemplo, han puesto en marcha equipos especialmente dedicados a combatir la desinformación en torno a las elecciones.

En Europa hay 24 lenguas oficiales que monitorizar, y el dominio de tantos idiomas no es una característica habitual entre los moderadores de contenidos. De ahí que la Comisión tenga especial interés en que se refuerce esta área. Según un informe de X recogido por Euronews, la red social solo tiene a un moderador de contenidos que domine el búlgaro, el croata, el neerlandés, el portugués, el letón o el polaco en su equipo global de 2.294 personas. No hay nadie que cubra 17 de las lenguas oficiales de la UE, entre ellas el griego, el húngaro, el rumano y el sueco: todo se fía ahí a la IA.

La amenaza de la desinformación y de la difusión de bulos es ya habitual en todas las elecciones, como mínimo desde las presidenciales de 2016 que llevaron a Donald Trump a la Casa Blanca. El peligro aumenta considerablemente de la mano de la IA generativa. Ahora se teme en particular que los deepfakes, los vídeos hiperrealistas hechos por IA, puedan tener una influencia directa en el voto de millones de ciudadanos. Esta tecnología permite generar vídeos en los que cualquier político aparezca en cualquier situación diciendo cualquier cosa.

Un reciente informe de Microsoft alerta de que China intentará influir en las presidenciales estadounidenses de noviembre, así como en las elecciones surcoreanas e indias, con contenidos generados con IA. La tecnológica espera que varios cibergrupos asociados a Pekín y Pyongyang estén trabajando ya en ello, como lo hicieron en las de Taiwán. “Aunque el impacto de estos contenidos sigue siendo escaso, la creciente experimentación china con memes, vídeos y audio continuará, y puede resultar eficaz en el futuro”, concluye el estudio.

“La confianza en el proceso electoral de la UE dependerá críticamente de nuestra capacidad para apoyarnos en infraestructuras ciberseguras, así como en la integridad y disponibilidad de la información. Depende de nosotros asegurarnos de que tomamos las medidas necesarias para alcanzar este objetivo sensible, pero esencial para nuestras democracias”, dijo el director ejecutivo de Enisa, Juhan Lepassaar.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites

_

TikTok ha lanzado en España una nueva versión de su aplicación que dará incentivos económicos a sus usuarios por ver vídeos. Preocupados por la lentitud de su crecimiento entre usuarios mayores, Tiktok ha lanzado una versión llamada TikTok Lite, ya disponible en las tiendas de aplicaciones de Android y Apple. La nueva aplicación, también lanzada en Francia, Japón y Corea, está en fase de pruebas. Los incentivos por ahora han sido activados solo en Corea y Japón, y no en España y Francia. La plataforma espera que cada usuario pueda ganar alrededor de 1 euro diario.

Un portavoz de la compañía en España no concreta cuándo se activarán los incentivos. La aparición de esta app, cuyo nombre interno entre los empleados es Coin App (aplicación moneda en inglés), ha sido revelada por el medio estadounidense The Information.

Logos de TikTok original y TikTok Lite en una pantalla de inicio de un móvil.

El objetivo de TikTok es aumentar su popularidad entre usuarios de más edad. Los incentivos irán proporcionando puntos que podrán intercambiarse por propinas para los creadores favoritos o cheques regalo de Amazon, Paypal u otros servicios. TikTok Lite no estará disponible para menores de 18 años.

Ahora mismo, esta nueva app es simplemente una copia del TikTok tradicional. Solo un pequeño rayo la distingue en el logo y la palabra “Lite” en la pantalla de inicio. El resto es igual. Al acceder con una cuenta de usuario, los vídeos son los mismos que cada persona tiende a ver en la app original. La nueva aplicación valorará que los usuarios consuman contenido, que consigan altas de nuevos usuarios y otras acciones que mejoren los datos de uso de la plataforma.

TikTok ya había lanzado Lite en mercados emergentes con menos disponibilidad de uso de datos por internet, ya que esta aplicación consume menos tráfico de información. En España, Lite también consumirá menos datos: no permitirá ver ni emitir directos y no tendrá anuncios.

Según datos de 2024 del servicio de medición Data.ai, la comparación en descargas de TikTok de los principales países continentales europeos respecto a Estados Unidos es constantemente negativa. En EE UU, a pesar de la polémica sobre su futuro tras las amenazas de prohibición, sigue sin apenas variaciones entre los tres primeros puestos de aplicaciones más descargadas, mientras que en Alemania, Francia, España e Italia le cuesta mantenerse siquiera entre las diez primeras.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

“Encontré accidentalmente un problema de seguridad mientras hacía pruebas de rendimiento de cambios”, escribió el ingeniero Andres Freund en la red social Mastodon. Ese hallazgo casual impidió que progresara una de las operaciones más largas y sofisticadas para obtener acceso ilegítimo a millones de dispositivos de todo el mundo.

El mensaje llevaba a un enlace donde Freund explicaba cómo había encontrado “un puñado de síntomas raros” al actualizar un programa. Le llamó la atención que usaba más capacidad de su procesador y que, sobre todo, tardaba medio segundo más en acceder. Ese medio segundo levantó su sospecha y le permitió descubrir el trabajo oscuro durante más de dos años de presuntamente una agencia de inteligencia estatal.

“Es muy poco probable que haya sido obra de aficionados. No había recompensas inmediatas”, dice Lukasz Olejnik, investigador y consultor independiente en ciberseguridad y autor del libro Philosophy of Cibersecurity [sin traducción al español]. “El tiempo dedicado a esta operación de engaño, la sofisticación del sistema de puerta trasera y su código, todo indica hacia una organización o agencia que puede permitirse un proyecto así. Simplemente, es mucho más probable que se haya hecho pagando sueldos”.

El ataque era de los llamados de la cadena de suministro, que afectan al software que sostiene los programas más conocidos y habituales. En este caso, el objetivo era una herramienta de compresión usada en Linux, un sistema operativo gratis y de código abierto. Esa herramienta se usa en millones de máquinas. El objetivo del ataque es similar a crear una puerta trasera con una llave especial, que solo tenían ellos, para acceder a cualquier edificio del mundo que tuviera esa entrada.

Este sistema se mantiene gracias a desarrolladores voluntarios que dedican horas a mantener y actualizar distintos programas. Este se llamaba XZ Utils. Hace algo más de dos años el atacante empezó a colaborar con el programador que estaba al cargo de actualizar este software. El encargado de actualizar y responder por correo a peticiones de retoques de otros desarrolladores estaba sobrepasado. Una parte del ataque consistía en pura ingeniería social: convencerle de que dejara parte de sus tareas a alguien detrás de una cuenta de alguien que se hacía llamar Jia Tan.

Si el atacante lograba la confianza del encargado de ese código podría, con el tiempo, colocar su código malicioso. Si no hubiera sido detectado, este software habría sido desplegado en millones de servidores y dado un acceso privilegiado. No está claro si la intención era usarlo para entrar en una o varias máquinas específicas o un ataque más masivo.

A pesar de que el código y el método requieren de extraordinarias habilidades informáticas, el control de estos programas depende a menudo de desarrolladores estresados y con sus problemas. En un hilo de mensajes el encargado admite no llegar a todo: “No he perdido el interés, pero mi capacidad de implicarme se ha visto bastante limitada, en su mayoría debido a problemas de salud mental a largo plazo, pero también por algunas otras razones. Recientemente, he colaborado fuera de lista con Jia Tan en XZ Utils y, quizás, él tendrá un papel más importante en el futuro, veremos. También es importante tener en cuenta que este es un proyecto de afición sin remuneración”, escribe el encargado, cuyas únicas nuevas explicaciones han sido que de momento no responderá a periodistas “porque primero necesito entender la situación lo suficientemente a fondo”.

“Hay un montón de gente quemada en el software, tanto en el de código abierto como en el comercial. En este caso puede ser útil, pero no un factor decisivo”, dice Olejnik. “Es una prueba contundente de que incluso el software de nicho u oscuro, semi-huérfano, puede ser un asunto de seguridad nacional e internacional. Es un coste oculto del software. Por otro lado, nadie puede culpar al mantenedor de XZ, no hay una amplia elección de desarrolladores para este tipo de software”, añade.

Es probable que otras cuentas falsas presionaran al encargado para que cediera antes su labor a Jia Tan. El caso revela a la vez un éxito y un agujero de la comunidad que mantiene buena parte del código de toda nuestra infraestructura digital. El agujero es que encontrar el eslabón débil es relativamente fácil. El éxito es que el código está disponible y accesible para que alguien como Andres Freund pueda detectar la trampa y hacerse famoso.

El propio Freund cree que esta vez tuvieron suerte: “No es que crea que no hice nada nuevo. Lo hice. Lo que quiero decir es que tuvimos una cantidad irracional de suerte y no podemos solo confiar en algo así de ahora en adelante”, escribió en Mastodon. El ataque es especial por la combinación de factores, pero los bloques de software de código libre sobre los que se basa internet han sido atacados en otras ocasiones, también por presuntas agencias de inteligencia. Es probable de hecho que haya otros casos similares en marcha o planteamiento. Con código cerrado también ha habido casos extremadamente célebres.

Una cuenta célebre de X (antes Twitter) dedicada al código malicioso ha hecho un meme viral de agradecimiento a Freund. “La puerta trasera de xz la pilló un ingeniero de software de Microsoft. Se dio cuenta de una latencia de 500 milisegundos y pensó que había algo raro. Este tipo es el gorila de espalda plateada de los frikis. El puto amo de internet.”

Tiene aún más sentido este otro meme que muestra cómo, en este caso, el software esencial del mundo era “mantenido sospechosamente por un actor pagado por un estado en horas de oficina”. El dibujo original en que se basa ese meme es obra del dibujante Randall Munroe y en la leyenda pone algo parecido a lo que ocurre en la realidad: “Un proyecto que una persona cualquiera de Nebraska lleva manteniendo desde 2003 sin que nadie se lo agradezca”.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.