Ciencia en el mundo

La inteligencia artificial puede aprender a mentir

Madri+d
Rev. Manrique Vindas Segura
César A. Parral
13. 07. 23

Este descubrimiento plantea temores sobre el uso de inteligencia artificial por personas sin escrúpulos para engañar a la comunidad científica con investigaciones falsas.

Médico junto a la caja de Pandora abierta. Ilustración generada por otra inteligencia artificial, siguiendo las instrucciones de Martin Májovský.

Fuente:
Madri+d: Imagen generada por: DALL-E2

Una investigación revela que los sistemas de inteligencia artificial especializados en tareas lingüísticas como ChatGPT (Chat Generative Pre-trained Transformer) pueden generar artículos académicos fraudulentos que parecen reflejar investigaciones auténticas cuando en realidad se trata de embustes. Este descubrimiento plantea temores sobre el uso de inteligencia artificial por personas sin escrúpulos para engañar a la comunidad científica con investigaciones falsas.

El equipo de Martin Májovský, de la Universidad Carolina en Praga, República Checa, se propuso investigar las capacidades que los actuales sistemas de inteligencia artificial especializados en el lenguaje humano tienen para crear artículos académicos exponiendo como reales y con todo detalle investigaciones médicas que nunca se han llevado a cabo.

El equipo utilizó el popular "chatbot" de inteligencia artificial ChatGPT (GPT-3) desarrollado por OpenAI, para generar un artículo académico exponiendo como auténticos todos los detalles de una investigación del campo de la neurocirugía que jamás se hizo.

A medida que ChatGPT generaba respuestas, se iban perfeccionando las preguntas así como las nuevas respuestas, lo que permitía mejorar paso a paso la calidad del resultado (o sea hacer cada vez más creíble la mentira).

Los resultados de este estudio han sido inquietantes: el sistema de inteligencia artificial produjo con éxito un artículo académico fraudulento que podía pasar por auténtico en cuanto al uso de las palabras, la estructura de las frases y la composición general.

El artículo incluía secciones estándar como un resumen, introducción, métodos empleados en la investigación, resultados y discusión, así como tablas y otros datos. Sorprendentemente, todo el proceso de creación del artículo duro solo una hora, y el (la) usuario (a) humano (a) ni siquiera necesitó una formación especial.

A medida que la inteligencia artificial sigue avanzando, resulta crucial para la comunidad científica no solo verificar la exactitud de los contenidos generados por estas herramientas, sino también implantar mecanismos para detectar y prevenir el fraude deliberado.

El estudio se ha publicado en la revista académica Journal of Medical Internet Research.

_________________________________________________________________________________________

Referencia bibliográfica: Májovský M, Černý M, Kasal M, Komarc M, Netuka D Artificial Intelligence Can Generate Fraudulent but Authentic-Looking Scientific Medical Articles: Pandora’s Box Has Been Opened J Med Internet Res 2023;25:e46924. DOI: 10.2196/46924.

Fotografía de portada: Ilustración generada por otra inteligencia artificial, siguiendo las instrucciones de un humano que pidió que la imagen mostrase un médico junto a la caja de Pandora abierta y que pareciese pintada al óleo por el célebre pintor Henri Matisse. (Imagen generada por: DALL-E2 / OpenAI, el 9 de marzo de 2023. Persona que dio las instrucciones: Martin Májovský).

El equipo científico que estudió las capacidades de sistemas de inteligencia artificial para crear artículos académicos de investigaciones médicas que no se realizaron es liderado por Martin Májovský, de la Universidad Carolina en República Checa.

Fuente: G.I.