Desde la idea inicial hasta la publicación: Un recorrido por la Ciencia en Abierto
A lo largo del proceso de investigación, hay muchas oportunidades para aplicar principios de ciencia en abierto. En esta sección ofrecemos una guía estructurada con los aspectos más relevantes en cada fase del proceso, para que puedas implementarlos de forma sencilla y efectiva.
Pre-registro: Planifica y protege tu investigación desde el inicio
El pre-registro es el proceso de documentar tu plan de investigación antes de recoger los datos. Consiste en registrar de antemano las hipótesis, la metodología, los criterios de exclusión/inclusión y los análisis estadísticos que se van a realizar.
¿Por qué pre-registrar tu estudio?
- Mayor transparencia y credibilidad: Ayuda a prevenir el sesgo de publicación y el ajuste post hoc de hipótesis y análisis.
- Mejor reproducibilidad: Permite a otros investigadores entender exactamente cómo se diseñó el estudio y comparar los resultados con el análisis predefinido.
- Protección de ideas: Si publicas tu pre-registro en una plataforma, queda constancia de tu idea antes de que otros la publiquen.
- Cumplimiento con requisitos de revistas y financiadores: Cada vez más revistas y agencias de financiación valoran o requieren el pre-registro como parte de buenas prácticas científicas.
¿Qué debe incluir un pre-registro?
- Hipótesis principales y, si las hay, hipótesis exploratorias.
- Diseño del experimento (variables independientes, dependientes, controles, etc.).
- Criterios de inclusión/exclusión de participantes y datos.
- Plan de análisis estadístico (qué pruebas estadísticas se usarán y bajo qué condiciones).
- Número de sujetos y justificación del tamaño muestral (cálculo de potencia si es posible).
- Detalles de los estímulos y materiales utilizados.
¿Dónde puedo pre-registrar mi estudio?
Existen varias plataformas donde puedes hacer un pre-registro público con sello de tiempo, garantizando la transparencia del proceso. A continuación aparece una descripción de las más utilizadas para elegir la mas conveniente en función de las necesidades del proyecto:
- Open Science Framework (OSF): Una plataforma versátil y flexible. OSF es una plataforma de código abierto que ofrece una solución integral para la gestión de proyectos de investigación. Permite registrar estudios en múltiples disciplinas (psicología, neurociencia, biomedicina, ciencias sociales, etc.) en diferentes formatos de pre-registro (como OSF Standard Pre-registration y Pre-registration Challenge Template). Ofrece la posibilidad de mantener el pre-registro privado hasta una fecha determinada, además de asignar un DOI para cada pre-registro, lo que facilita su citación.
- AsPredicted: Simplicidad y rapidez. AsPredicted es una plataforma diseñada para hacer el proceso de pre-registro lo más simple posible. Su enfoque es proporcionar un formulario estructurado con 9 preguntas clave que ayudan a definir el diseño del estudio sin necesidad de escribir un documento largo. No requiere conocimientos técnicos ni experiencia previa en pre-registro y es ideal para para estudios experimentales con diseños simples y directos.
- PROSPERO – Para revisiones sistemáticas y meta-análisis en diversas disciplinas, incluyendo salud, psicología y ciencias sociales. Exige información detallada sobre los criterios de inclusión/exclusión de estudios, las estrategias de búsqueda, la evaluación del sesgo y los métodos de análisis. Obligatoriedad en algunas revistas: muchas revistas de alto impacto requieren que las revisiones sistemáticas y meta-análisis estén pre-registrados en PROSPERO.
¿Es obligatorio compartirlo?
No necesariamente. Puedes mantener el pre-registro privado hasta una fecha determinada o hacerlo público desde el inicio. Algunas plataformas permiten compartirlo solo con revisores o colaboradores antes de su publicación completa.
Registered Reports: Revisión por pares antes de la recogida de datos
El formato de Registered Reports es una iniciativa innovadora en la publicación científica que busca mejorar la transparencia y la reproducibilidad de la investigación. A diferencia del proceso tradicional de publicación, en el que los estudios son revisados una vez que los datos han sido recogidos y analizados, en los Registered Reports la revisión por pares ocurre antes de la recopilación de datos. Este modelo representa un cambio importante en la publicación científica y está ganando popularidad en disciplinas como la neurociencia, la psicología y la biomedicina.
Este formato de publicación presenta ciertas ventajas:
- Evitan el sesgo de publicación: Los estudios no son rechazados por obtener resultados negativos o no significativos.
- Mejoran la calidad metodológica: Los revisores pueden detectar fallos en el diseño antes de que se inicie la recogida de datos.
- Mayor reproducibilidad y transparencia: Todo el proceso está documentado y registrado desde el inicio.
- Reconocimiento creciente: Muchas revistas de alto impacto han adoptado este formato, como Nature Human Behaviour, Cortex y PLOS Biology.
El siguiente enlace incluye mas información sobre el procedimiento:
Plan de gestión de datos:
La gestión de datos de investigación es un aspecto clave de la ciencia en abierto. Al organizar, documentar y compartir los datos correctamente, garantizamos su reutilización y su accesibilidad para la comunidad científica. La ciencia en abierto promueve la transparencia, la accesibilidad y la colaboración en la investigación, lo que permite que los resultados sean compartidos y verificados sin restricciones. Además, las distintas instituciones financiadoras fomentan el acceso abierto con objetivo de retornar la inversión pública en beneficio de toda la sociedad. Para ello, los Principios FAIR proporcionan una guía clara y ampliamente aceptada para mejorar la calidad y la sostenibilidad de los datos científicos.
Principios FAIR: Findable, Accessible, Interoperable, Reusable
El 15 de marzo de 2016, la revista Scientific Data de Nature publicó el artículo “Principios FAIR para el manejo y administración de datos científicos”. Estos principios establecen un conjunto de criterios claros y medibles que garantizan que los datos sean Localizables, Accesibles, Interoperables y Reutilizables. Se incluyen a continuación algunas recomendaciones generales para que los datos registrados sigan esta filosofía:
Localizables y accesibles:
Los datos deben ser fáciles de encontrar para cualquier usuario, tanto humanos como sistemas informáticos, garantizando que puedan ser obtenidos y utilizados en el futuro. Para ello debemos:
- Asignar identificadores únicos y persistentes (DOI, Handle, UUID).
- Usar metadatos descriptivos que permitan buscar los datos de manera efectiva. Además hacerlos siempre públicos incluso si los datos son restringidos.
- Almacenar los datos en repositorios accesibles fiables y bien indexados. Esto garantizará la persisitencia a largo plazo.
Ejemplo: Depositar los datos en repositorios como Zenodo, OSF o OpenNeuro con un DOI.
Interoperables y reutilizables:
Los datos deben poder ser integrados y utilizados con otros conjuntos de datos y herramientas. Además, para que los datos puedan ser reutilizados en futuras investigaciones, deben estar bien documentados y correctamente licenciados. Para ello recomendamos lo siguiente:
- Usar formatos ampliamente reconocidos y fáciles de procesar por un software gratuito (CSV, JSON, etc). A ser posible, evitar formatos propietarios que dificulten su procesamiento.
- Estructurar los datos de forma coherente y seguir estándares propios del área de investigación (BIDS para neuroimagen).
- Incluir una documentación clara y completa, especificando no solo cómo se recogieron los datos, sino también cómo se pueden interpretar.
- Proporcionar metadatos detallados con información sobre el contexto del estudio.
- Acompañar los datos de una licencia que especifique cómo pueden ser utilizados (CC-BY, CC0, etc) y que permitan su reutilización.
- Mantener un control de versiones de los datos, sobre todo si se van a realizar modificaciones importantes en los mismos.
En resumen, se debe definir una estructura clara para los datos, usar formatos abiertos y elegir un repositorio adecuado. Durante la recolección y el análisis se debe documentar cada paso y usar estándares ampliamente aceptados por la comunidad. Finalmente, para la publicación de los mismos, debemos asegurarnos de incluir metadatos detallados, identificadores persistentes y una licencia abierta. Siguiendo estos principios, los datos no solo serán más organizados y accesibles, sino que también aumentará su impacto y reproducibilidad en la comunidad científica.
Para concluir, recalcamos el lema fundamental que está bajo los principios FAIR: “tan abierto como sea posible, tan cerrado como sea necesario”.
Análisis de datos
El análisis de datos es una fase esencial en cualquier estudio científico. Para garantizar la reproducibilidad y transparencia en la investigación, es fundamental adoptar buenas prácticas que permitan entender, verificar y replicar los resultados. A continuación, te ofrecemos algunas recomendaciones interesantes:
Transparencia en los análisis
- Documenta detalladamente cada paso de tu procesamiento de datos y análisis estadísticos.
- Asegúrate de incluir información sobre las herramientas y versiones de software utilizadas.
- Explica cualquier decisión metodológica que pueda influir en la interpretación de los resultados, como la selección de parámetros, filtrado de datos o métodos estadísticos empleados.
Uso de notebooks y scripts reproducibles
La reproducibilidad es clave en la ciencia abierta. Siempre que sea posible, usa herramientas que permitan combinar código, resultados y explicaciones en un mismo documento. Esto facilitará la organización de los análisis de manera estructurada, permitirá compartir el código junto con los resultados de manera clara y hace que la revisión y la replicación del trabajo sea mas sencilla.
Algunas herramientas y recomendaciones a destacar serían las siguientes:
- Jupyter Notebook (Python): Jupyter Notebook es una aplicación web interactiva que permite crear y compartir documentos que contienen código, texto explicativo, visualizaciones y ecuaciones en un mismo entorno. Es ampliamente utilizado en ciencia y análisis de datos, ya que facilita la ejecución de código en celdas independientes, permitiendo probar fragmentos de código de manera flexible. Soporta múltiples lenguajes de programación, aunque es más comúnmente usado con Python. Además, permite integrar gráficos, comentarios y fórmulas en formato Markdown o LaTeX, lo que lo hace ideal para documentar y reproducir análisis científicos.
- R Markdown (R): R Markdown es un formato de documento que permite combinar texto, código R y visualizaciones en un mismo archivo, facilitando la creación de informes reproducibles. Utiliza la sintaxis de Markdown para dar formato al texto y permite ejecutar fragmentos de código directamente en el documento, generando resultados de manera automática. Es ideal para análisis de datos, ya que permite integrar gráficos, tablas y ecuaciones en un informe que puede exportarse a formatos como HTML, PDF o Word. Su uso es común en investigación y ciencia de datos, ya que facilita la documentación y presentación de resultados de forma clara y estructurada.
- Google Colab: Similar a Jupyter Notebooks, Google Colab es una plataforma gratuita basada en la nube que permite ejecutar código en notebooks de Jupyter sin necesidad de configuración local. Es especialmente útil para la investigación y el análisis de datos, ya que facilita la ejecución de código en Python, la generación de gráficos y la manipulación de grandes volúmenes de información. Además, permite colaborar en tiempo real con otros usuarios y se integra fácilmente con Google Drive para almacenar y compartir proyectos. Su acceso a recursos computacionales avanzados lo hace ideal para desarrollar y documentar análisis de manera flexible y reproducible.
- Importante: Si utilizas otro tipo de scripts (por ejemplo, en MATLAB), asegúrate de que estén bien comentados y organizados.
Comparte y versiona tu código
Adoptar buenas prácticas en el análisis de datos no solo mejora la calidad y credibilidad de la investigación, sino que también permite a otros beneficiarse de los conocimientos generados. La ciencia abierta comienza con la transparencia y la accesibilidad.
El código fuente de los análisis debe estar disponible para que otros puedan verificar y reutilizar tu trabajo. Esto aumenta la confianza en los resultados científicos, facilita la replicación de los análisis y los estudios y fomenta la colaboración y el desarrollo conjunto de herramientas para la comunidad científica.
Para ello, se recomienda el uso de plataformas de control de versiones y repositorios abiertos en los que puedes alojar y versionar tu código, entre las que destacan las siguientes:
- GitHub es una plataforma en la nube para el control de versiones y la colaboración en desarrollo de software y proyectos de investigación. Permite almacenar, gestionar y compartir código de forma eficiente, facilitando el trabajo en equipo a través de herramientas como Git. Es ampliamente utilizado en investigación para organizar análisis de datos, documentar procesos y hacer que los proyectos sean reproducibles y accesibles. Además, ofrece funcionalidades como control de cambios, issues para gestión de tareas y la posibilidad de alojar páginas web o documentación mediante GitHub Pages
- Zenodo es otra plataforma de acceso abierto que permite almacenar, compartir y preservar conjuntos de datos, publicaciones y código fuente de forma gratuita. Es especialmente útil para la comunidad científica, ya que facilita la publicación de software de investigación con asignación de DOI, asegurando su citabilidad y reconocimiento académico. Además, promueve la reproducibilidad científica al proporcionar un espacio estable para compartir código junto con documentación y datos asociados.
Además, a la hora de compartir código es recomendable seguir un conjunto sencillo de buenas prácticas:
- Incluye un README con una descripción del proyecto, instrucciones de uso y dependencias necesarias. Por ejemplo, si tu código usa software externo como EEGLAB, Fieldtrip, o cualquier herramienta de análisis de datos que deba ser instalada para el correcto funcionamiento del código, debe indicarse dentro de este archivo.
- Usa licencias abiertas. Para permitir la reutilización de nuestro código no basta con colgarlo en un repositorio, sino que debemos seleccionar las licencias que se adecúen a las necesidades de nuestro proyecto.
- Versiona tu código.
Publicación de los resultados
Repositorios abiertos: preprints
Existen repositorios públicos y gratuitos, como PsychArchives o bioRxiv.org, que permiten subir versiones de artículos (preprints). Estas plataformas garantizan que nuestros trabajos estén disponibles de forma pública, aunque tras su publicación la versión editada por la revista quede tras un muro de pago. Los preprints son una versión del manuscrito previa a la publicación formal en una revista, por lo que no suele ser considerada como una publicación duplicada por la editorial. Las grandes editoriales suelen permitir el uso de estas plataformas, por lo que recomendamos leer la política editorial de la revista a la que planeamos enviar nuestro artículo para hacerlo de forma correcta.
Para asegurar que vuestras publicaciones estén siempre disponibles en abierto, recomendamos la subida del artículo original a un repositorio público ANTES de su remisión a cualquier revista. Del mismo modo, cada vez que hagáis cambios del artículo tras los procesos de revisión, es importante subir la versión actualizada del artículo al repositorio al mismo tiempo que se envía el documento actualizado a la revista. No se debe esperar a la aceptación final para hacer esto, ya que algunas revistas en ese momento ya no permiten dicha actualización en el repositorio. Siguiendo el procedimiento sugerido, os aseguraréis de que la versión aceptada de vuestro artículo está también disponible en modo abierto, para que cualquier persona pueda acceder al resultado de vuestras investigaciones.
EN DESARROLLO
Vuelve pronto para ver las nuevas actualizaciones.