Logroño- El uso de la Inteligencia
Artificial (IA) es un fenómeno «imparable», pero requiere un proceso de
«vacunación social» para educar a la población sobre los efectos que tiene esta
tecnología en la polarización y la crispación, que pueden suponer «una amenaza
para la democracia» si las personas no ejercen su capacidad crítica.
Así lo ha asegurado este viernes a
EFE Manuel Armayones, doctor en Psicología y catedrático en Diseño del
Comportamiento en la Universitat Oberta de Catalunya (UOC), quien ha ofrecido
en Logroño la conferencia inaugural de las XX Jornadas de Psicología en La
Rioja, dedicadas a los beneficios, riesgos y dilemas éticos de la IA.
«Está todo yendo más rápido que
nuestra capacidad de adaptarnos, pero eso ha pasado con muchas tecnologías»,
por lo que ha abogado por «hacer un buen uso de la IA y que no sea la IA la que
nos utiliza a nosotros».
Ha comparado la IA con un dron, un
aparato que puede utilizar la Guardia Civil para llevar medicamentos a una
persona atrapada en la montaña sin posibilidad de rescate, pero que también
sirve para lanzar bombas.
‘Bots’ como apoyo psicológico
En su ejercicio laboral, los
psicólogos tienen que procurar que la IA tenga «un efecto positivo» sobre los
ciudadanos, lo que implica aprender nuevas competencias profesionales para
atender nuevas situaciones, como por ejemplo, personas que establecen
relaciones con ‘bots’ (robots).
Además, se podría aplicar la IA como
apoyo en procesos de evaluación psicológica e intervenciones, y aunque ha
matizado que «la charla con un ‘bot’ no es terapia, es interacción con una
máquina», puede servir de apoyo entre consultas, «siempre bajo supervisión de
un psicólogo clínico».
Deserción cognitiva y suspicacia
Armayones ha considerado que esta
tecnología ha provocado un proceso de «deserción cognitiva» en algunos
usuarios, quienes han optado por «claudicar y dejar de esforzarse, al
encomendar muchos procesos a la IA», pero también hay personas que no se fían
de algunos contenidos y se ha producido «una crisis de la evidencia», por la
suspicacia de que un artículo pueda estar generado por IA.
En este sentido, ha alertado del
riesgo de que la IA se extienda al ámbito de la investigación científica, por
lo que ha propuesto que, para conseguir una plaza de catedrático en la
universidad, no solo se exija la publicación de artículos científicos y se le
pida también divulgación, participación en la sociedad civil o un impacto real
de sus investigaciones.
En esta nueva era, «lo ‘premium’ van
a ser las personas» y, ante el miedo al remplazo laboral de la IA en algunos
trabajos, ha augurado que «surgirán nuevas profesiones», como por ejemplo,
auditorias psicológicas de los algoritmos, para evaluar si las plataformas
cumplen la legislación.
Otra forma de evaluar
Este catedrático ha considerado que,
desde el ámbito educativo, los docentes van a tener que cambiar la manera de
evaluar a los estudiantes, porque «se da por hecho que van a usar la IA y casi
se les debería exigir como una herramienta más».
Por otro lado, ha alertado del
peligro de la pérdida de la intimidad y la salvaguarda de la protección de
datos, porque al interactuar con la IA se proporciona información personal que
«se puede utilizar en cualquier momento contra el usuario».
Las grandes compañías tecnológicas
han conseguido que los usuarios entrenen gratis a sus herramientas, «pero si
tuvieran que pagar por cada interacción, no tendrían dinero suficiente», por lo
que ha pedido a la población «ser un poco críticos y pedir un retorno» a estas
empresas. EFE

No hay comentarios.:
Publicar un comentario