“Durante los experimentos, esta máquina se comportó de manera irracional y exactamente como estaba planeado. Que ella solo fingía ser inteligente. Además, su comportamiento fue sin falta + tonto. + Sin embargo, más del 85 por ciento de los participantes en el experimento lo ignoraron y consideraron su comportamiento como un punto de referencia para el suyo”- enfatiza el citado profesor en el sitio web de AMU.
El estudio consiste en dos partes. En uno de ellos, los encuestados (principalmente mujeres, 1500 personas) participaron de una encuesta online en la que tomarían decisiones. Antes de tomar una decisión, algunos de los encuestados fueron informados sobre la decisión tomada previamente por la inteligencia artificial (y obviamente dio respuestas incorrectas), y otros, no. En el segundo estudio, los participantes (55 personas, en su mayoría mujeres jóvenes) fueron invitados al laboratorio, donde los participantes vieron la decisión del robot (también inteligentemente diferente) antes de responder y tuvieron que evaluar esta decisión.
La idea era identificar a un terrorista entre seis personas con la suposición de que estaba realizando una actividad no estándar en Facebook. FI señaló a una persona con un comportamiento aparentemente promedio en Facebook, por lo que estaba muy claro que esta era la respuesta incorrecta.
A pesar de esto, la mayoría de los encuestados asumieron que la inteligencia artificial era igual y se decidieron por la misma respuesta. Michał Klichowski llamó a este nuevo mecanismo evidencia de inteligencia artificial (evidencia de IA).
Michał Klichowski llama la atención sobre el mecanismo llamado “evidencia social”. Esta teoría asume que si no hay datos objetivos o suficientes sobre cómo debe comportarse, la fuente de información se convierte en el comportamiento de otras personas.
“En tales situaciones, las personas a menudo renuncian a sus propios juicios por completo y copian las acciones de los demás. Tal conformidad está motivada por la necesidad de tomar acciones justas y apropiadas, y la sensación de que los juicios de la situación construidos por otros son más adecuados que los propios. Este efecto es mayor cuando la situación es más incierta que de crisis (hay sensación de amenaza), cuanto más urgente es la decisión y menor el sentido de competencia en esta decisión”- enfatiza el investigador citado por el portal AMU como con los
Robots colaborativos.
Investigación: la gente confía sin críticaDe ahí la cuestión de si el comportamiento, opinión o decisión de la inteligencia artificial, que se ha convertido en parte de nuestra vida diaria, puede ser una fuente similar de información para las personas sobre cómo actuar. La investigación de la psicóloga muestra que las personas: “Confían tanto en sí mismas que incluso en una situación de crisis absoluta, cuando hay que tomar una decisión sobre la vida humana, pueden hacer indiscriminadamente lo que sugiere la inteligencia artificial, a pesar de que postula algo completamente absurdo”. “- dice el científico,