La ciencia enfrenta un problema con la IA: un equipo propone soluciones para resolverlo

Un equipo interdisciplinario de 19 investigadores, liderado por los científicos de computación de la Universidad de Princeton Arvind Narayanan y Sayash Kapoor, ha publicado pautas para el uso responsable del aprendizaje automático en la ciencia. Estas pautas tienen como objetivo abordar la crisis de credibilidad que amenaza con afectar a casi todos los rincones de la empresa de investigación, debido a los profundos defectos en la forma en que se utiliza el aprendizaje automático en la ciencia. La crisis de reproducibilidad actual, causada por la falta de estándares universales que salvaguarden la integridad de los métodos de aprendizaje automático, podría ser más grave que la crisis de replicación que surgió en la psicología social hace más de una década.

El enfoque del equipo se centra en la transparencia, instando a los investigadores a proporcionar descripciones detalladas de cada modelo de aprendizaje automático, incluido el código, los datos utilizados, las especificaciones de hardware, el diseño experimental, los objetivos del proyecto y las limitaciones del estudio. Aunque la implementación de estándares más rigurosos podría ralentizar la publicación de estudios, se espera que aumente la tasa general de descubrimiento e innovación. La idea es que asegurando la publicación de artículos de alta calidad, se acelere el progreso científico, evitando así pérdidas de tiempo y dinero, y fomentando la honestidad en la investigación.

Se espera que la adopción de estas normas mejore la calidad del trabajo de los propios investigadores, permita a los revisores evaluar los artículos de manera más efectiva y que las revistas las adopten como requisito para la publicación. En definitiva, estas pautas buscan mantener la integridad de la investigación que utiliza el aprendizaje automático, promoviendo un ambiente científico más transparente y confiable.