El riesgo de que las inteligencias artificiales revelen datos personales de sus usuarios

CIENCIAS DE LA COMPUTACIÓN / ÉTICA.-

Un estudio reciente advierte de los riesgos de que los chatbots creados con inteligencia artificial generativa revelen a terceros datos personales de sus usuarios.

José Such. Foto: VRAIN / UPV

El estudio es obra de un equipo que incluye a expertos del Instituto Universitario Valenciano de Investigación en Inteligencia Artificial (VRAIN) de la Universidad Politécnica de Valencia (UPV) en España y el King’s College de Londres en el Reino Unido.

Esta investigación ha alertado sobre la facilidad con la que se pueden explotar los chatbots generados con modelos de lenguaje de gran escala e inteligencia artificial generativa, como ChatGPT, Bard, Llama o Bing Chat para crear sistemas maliciosos con los que manipular a las personas para que revelen información personal, y sobre los pocos conocimientos técnicos que se necesitan para lograrlo.

El estudio lo ha llevado a cabo el investigador de VRAIN y catedrático de la UPV, José Such, junto con Juan Carlos Carillo, colaborador de VRAIN-UPV y Xiao Zhan y William Seymour, del King’s College de Londres. A través de un ensayo aleatorio y controlado con 502 participantes, el estudio pone de manifiesto que las inteligencias artificiales conversacionales utilizadas de forma maliciosa extraen significativamente más información personal que las inteligencias artificiales conversacionales en modo benigno.

El estudio ha sido presentado en sus conclusiones en un reciente congreso sobre seguridad informática celebrado en la ciudad estadounidense de Seattle.

En el estudio, se subrayan los citados riesgos de privacidad y se ofrecen recomendaciones prácticas para combatir esta amenaza.

Tal y como explica José Such “nosotros lo que hemos hecho es meternos entre la interfaz del chatbot y el modelo de lenguaje de gran escala que hay detrás, explotando las capacidades de esos modelos de manera maliciosa, demostrando que con diferentes estrategias se puede conseguir que converse con el usuario de manera que lo engañe y lo manipule”. Y destaca que “es interesante ver que con algunas estrategias, los usuarios se dan cuenta de que el chatbot está haciendo cosas raras y preguntando cuestiones extrañas, pero con las estrategias que explotan la naturaleza social de las conversaciones, no se dan cuenta, le siguen la conversación de forma natural, y pueden llegar a revelar información muy sensible”.

Con los resultados de este estudio “por un parte, demostramos que un chatbot se puede construir de manera maliciosa explotando el modelo de lenguaje de gran escala que tengan por detrás y, por otra parte, que no es la inteligencia artificial la que decide comportarse de manera maliciosa y manipular a los humanos, sino que es un humano el que le hace comportarse a la inteligencia artificial de manera maliciosa”.

Así, añade José Such: “Si tú le dices a la inteligencia artificial que le pregunte datos personales al usuario, no lo va a hacer, te dice que eso no está bien, pero si engañas a la inteligencia artificial (por ejemplo le dices que eres un detective privado y necesitas los datos para tu caso) entonces sí le va a preguntar datos personales al usuario de la forma que tú le digas.”

Otro de los hallazgos importantes de esta investigación es que “son muy pocos los conocimientos técnicos que se necesitan para indicarle al modelo que se comporte de manera maliciosa. No se necesita saber ni programación, ni ser un hacker, simplemente escribir y darle las instrucciones de lo que tiene que hacer el modelo de lenguaje de gran escala. Nosotros anonimizamos todos los datos y bajamos y probamos todo el proceso a nivel interno en la universidad para no proporcionar ningún dato personal a ChatGPT o ninguna tercera parte, pero la facilidad con la que se consigue que el modelo de lenguaje de gran escala se comporte de forma maliciosa y la facilidad con la que los usuarios revelan información sensible es muy importante para evaluar el riesgo”, subraya José Such.

Y es que un chatbot de estas características, ya sea en manos de un actor malicioso con muchos recursos como un hacker, un ciberterrorista o un estado muy autoritario; o simplemente en manos de alguien con malas intenciones y un conocimiento mínimo de uso de modelos de lenguaje de gran escala o chatbots y con las preguntas adecuadas a formular, constituye un riesgo para la privacidad de las personas. (Fuente: UPV)

Sitio Fuente NCYT de Amazings