El temor a la inteligencia artificial surge del recelo hacia los intereses económicos

  15 Noviembre 2019    Leído: 1118
El temor a la inteligencia artificial surge del recelo hacia los intereses económicos

Un estudio pionero apunta que el recelo hacia la tecnología proviene de la desconfianza hacia los intereses de quienes pagan su desarrollo y los problemas de privacidad.

Es un topicazo, cuando se habla de los riesgos de la inteligencia artificial, citar el ejemplo de Skynet, el programa que decide exterminar a los humanos en Terminator. Pero se recuerda muy poco a Cyberdyne Systems, la empresa que lo desarrolla. ¿Por qué esta compañía decide poner en marcha un proyecto tan peligroso sin estudiar a fondo las consecuencias? En la última década han surgido numerosos recelos hacia los desarrollos tecnológicos, incluidas las máquinas inteligentes, pero sabemos poco sobre cómo se construye esta desconfianza. Ahora que se pretende que la inteligencia artificial entre en cada rincón de nuestras vidas, urge conocer cuál es la actitud de los ciudadanos ante esta tecnología decisiva. Por primera vez, un estudio ha analizado en detalle las respuestas de una gran muestra de españoles para descubrir por qué desconfían de las máquinas que piensan y parece que la metáfora de Cyberdyne funciona. Quienes recelan lo hacen, entre otros motivos, porque desconfían de los intereses económicos que pueda haber detrás del desarrollo de estos programas.

Al preguntarle a 5.200 españoles sobre la inteligencia artificial se descubre que un tercio cree que tiene más riesgos que beneficios (33,3%), un 38,4% opina lo contrario y un 28,3% considera que riesgos y beneficios están equilibrados. Pero lo más interesante surgió cuando los investigadores, de la Universidad Autónoma de Madrid (UAM), analizaron esas respuestas junto con otras que los encuestados dieron sobre otros aspectos generales sobre ciencia y tecnología. Eso les permitió hacer tres asociaciones muy claras entre los recelos que manifiesta estos españoles.

La primera es la relación directa entre esta preocupación y la que tiene que ver con la privacidad, un asunto que ha alarmado cada vez a más gente en los últimos años a partir de los numerosos escándalos de empresas como Facebook y Google. Precisamente, las mismas compañías tecnológicas que en los últimos años han tomado las riendas en el desarrollo de la inteligencia artificial atendiendo a sus intereses comerciales, como denuncian desde el mundo académico.

Esto nos lleva al segundo aspecto que destaca entre quienes desconfían de las máquinas pensantes. “Se da sobre todo entre la gente que ya manifiesta una desconfianza sobre la financiación de la ciencia, por ejemplo, y que dependiendo de quién paga duda de que la aplicación final vaya a ser positiva. Son gente que desconfía del uso que se le pueda dar por los intereses que pueda haber detrás”, resume Josep Lobera, autor principal del estudio, que se basa en los datos de la encuesta de Percepción Social de la Ciencia de Fecyt. Las mujeres en general desconfían más.

También es llamativo que los colectivos vulnerables no estén tan preocupados por las consecuencias negativas de la inteligencia artificial como cabría esperar, incluso controlando la variable de la alfabetización científica. “Los trabajadores menos especializados, los que están más en riesgo, no tienen una preocupación proporcional a la situación de riesgo en la que están. Es como si supiéramos que viene una crecida y los que están en la playa están preocupados, pero no tanto como deberían, en comparación con quienes están en lo alto de la cumbre”, advierte el sociólogo de la UAM sobre las conclusiones de su estudio.

Además, no se encuentran diferencias con la percepción de la robotización, “que se observa como un continuo: es igual un brazo robótico en la Ford que un algoritmo que se escribe una noticia”, afirma Lobera. Y añade: “No distinguen del todo el concepto de máquina inteligente y mantienen actitudes muy similares hacia algoritmos, robotización… todo es lo mismo”.

¿Google es Skynet?
¿Por qué Facebook, Google, Amazon y Microsoft gastan millones y millones en inteligencias que ganan al póker para el Pentágono y que muestran anuncios en sus plataformas? “¿Nos podemos fiar o son como Cyberdyne?”, podrían preguntarse los ciudadanos que le ponen pegas a esta tecnología. O sobre la pujanza que está adquiriendo China en este campo, con investigaciones mucho más centralizadas.

Por ese motivo, Carissa Véliz, especialista en ética digital de la Universidad de Oxford, se pregunta cómo debemos usar estos resultados para cambiar la sociedad a mejor, porque no es obvio en el caso de una tecnología que está en una fase tan temprana. “Si la encuesta fuera sobre la vacuna para el polio, y 33% de la ciudadanía pensara que esa tecnología tiene más riesgos que beneficios, estaría claro qué hacer: campañas de información”, explica. Pero en este caso, asegura Véliz, la opinión dividida de la ciudadanía parece alinearse con la división existente entre los expertos. ¿Habría que intentar convencer al 33% de la población de que vale la pena cuando no está claro que sea así (por lo menos en esta fase, con las maneras en las que se está implementando)? ¿O quizás habría que alertar al 38% de la población que cree que tiene más beneficios que riesgos sobre los errores e injusticias que ha causado y sigue causando?”.

“Los trabajadores menos especializados, los que están más en riesgo, no tienen una preocupación proporcional a la situación de riesgo en la que están", asegura Lobera
Este es el tipo de pregunta que se hacen los que desconfían, según los datos de Lobera. “Hay una división muy clara: igualitaristas frente a individualistas. Los primeros, que se fijan en los riesgos de la inteligencia artificial, están más preocupados por la redistribución; los segundos por un Estado demasiado intervencionista”, resume. “Están muy afectados por estos valores culturales, es algo muy parecido a lo que sucede con otras tecnologías, como la energía nuclear”, afirma Lobera.

“¿La gente es consciente de que la causa por la que no obtuvo un préstamo, o un trabajo, es por un algoritmo que no ofrece razones? No lo sé. Lo dudo”, continúa Véliz. “Y no porque la gente sea tonta o ignorante, sino porque no es fácil estar bien informado”, asegura. “Podrías preguntarle a un experto mundial: ¿cuántos algoritmos han tomado decisiones sobre tu vida hoy y cómo han llegado a esas decisiones? Incluso esa persona no podría contestar la pregunta”, asegura la experta de Oxford. Y denuncia: “El uso de algoritmos no es algo que se anuncie ni se explique. Son procedimientos a los que la ciudadanía es sometida de manera opaca”.

Por su parte, a la experta Nuria Oliver le parece que “tiene sentido” esta resistencia a la entre aquellas personas que expresan una mayor preocupación sobre la privacidad y la igualdad. Oliver, que formó parte del primer grupo de sabios del gobierno español en inteligencia artificial y asesora a la Comisión Europea, hace suyas las acciones propuestas en el estudio de Lobera, como mejorar la comunicación sobre esta tecnología, “evitando el sensacionalismo catastrofista e informando con rigor”, y colaborando con la ciudadanía para que se sienta involucrada y entienda mejor la tecnología. Y agrega: “Yo añadiría inversión en educación en todos los niveles: educación obligatoria, introduciendo el pensamiento computacional como asignatura troncal; la educación a los profesionales, sobre todo a aquellos cuyas profesiones se van a ver afectadas por la inteligencia artificial; educación a la clase política, a la ciudadanía y a los medios de comunicación”.

elpais


Etiquetas: inteligencia   artificial   intereseseconómicos  


Noticias