Adentrándonos al conocimiento científico La biología debe generar ideas y datos Los datos deben ser un medio de conocimiento, no un fin en sí mismos Al aceptar un premio Nobel hace casi dos décadas, mi vieja amiga Sydney Brenner tenía una advertencia para la biología. "Nos estamos ahogando en un mar de datos y hambrientos de conocimiento", dijo. Esa advertencia, de uno de los fundadores de la biología molecular, quien estableció al gusano nematodo Caenorhabditis elegans como organismo modelo, es aún más relevante para la biología actual. Con bastante frecuencia, voy a una charla de investigación y me siento ahogado en datos. Algunos oradores parecen pensar que deben desencadenar un tsunami de datos si se quieren tomar en serio. Se descuida el encuadre, junto con la razón por la que se recopilan los datos; qué hipótesis se están probando; qué ideas están surgiendo. Los investigadores parecen reacios a llegar a conclusiones biológicas o presentar nuevas ideas. Lo mismo ocurre en las publicaciones escritas. Es como si la especulación sobre lo que podrían significar los datos y la discusión de ideas no fuera del todo "apropiada". Mi opinión es diferente: la descripción y la recopilación de datos son necesarias pero insuficientes. También se necesitan ideas, incluso tentativas, junto con el reconocimiento de que las ideas cambiarán a medida que se acumulen los hechos y los argumentos. Relato Las máquinas y las células de Turing tienen mucho en común Script de código de la vida
La investigación biológica está en crisis y en el trabajo de Alan Turing hay mucho que nos puede guiar. La tecnología nos brinda las herramientas para analizar organismos a todas las escalas, pero nos estamos ahogando en un mar de datos y sedientos de algún marco teórico con el que comprenderlos. Aunque muchos creen que 'más es mejor', la historia nos dice que 'menos es mejor'. Necesitamos teoría y una comprensión firme de la naturaleza de los objetos que estudiamos para predecir el resto. Tres de los artículos de Turing son relevantes para la biología. En 1952, 'La base química de la morfogénesis' exploró la hipótesis de que los patrones se generan en plantas y animales por “sustancias químicas llamadas morfógenos, que reaccionan juntas y se difunden a través de un tejido”. Utilizando ecuaciones diferenciales, Turing estableció cómo las inestabilidades en un medio homogéneo podrían producir patrones de ondas que podrían explicar procesos como la segregación de tipos de tejidos en el embrión en desarrollo.
Crédito: ILUSTRACIÓN POR ANDY POTTS.
Sin embargo, el apoyo biológico a la idea de Turing ha sido marginal. Los patrones pre ordenados que se encuentran en el desarrollo de Drosophila no se ajustan a la teoría de la inestabilidad, que, hasta hace poco, solo podía describir sistemas químicos. Sin embargo, se ha demostrado que el patrón de la piel sigue una interpretación más amplia de los términos de Turing, donde se consideran las vías de señalización de célula a célula, en lugar de moléculas individuales. Los canales iónicos postulados por Alan Lloyd Hodgkin y Andrew Huxley, también en 1952, fueron descubiertos más inmediatamente por la biología molecular. Turing publicó otro artículo relacionado con la biología, en 1950. "Maquinaria informática e inteligencia" introdujo la prueba de Turing como un juego de imitación en el que un interrogador externo intenta distinguir entre una máquina de computación y una lámina humana a través de sus respuestas a las preguntas. Pero la prueba de Turing no dice si las máquinas que coinciden con los humanos tienen inteligencia, ni simula el cerebro. Para eso, necesitamos una teoría sobre cómo funciona el cerebro. La conexión más interesante con la biología, en mi opinión, se encuentra en el artículo más importante de Turing: 'Sobre números computables con una aplicación al Entscheidungsproblem', publicado en 1936, cuando Turing tenía solo 24 años. Los números computables se definen como aquellos cuyos decimales se pueden calcular por medios finitos. Turing introdujo lo que se conoció como la máquina de Turing para formalizar el cálculo. La máquina abstracta está provista de una cinta, que escanea un cuadrado a la vez, y puede escribir, borrar u omitir símbolos. El escáner puede alterar su estado mecánico y puede "recordar" símbolos leídos previamente. Básicamente, el sistema es un conjunto de instrucciones escritas en la cinta, que describe la máquina. Turing también definió una máquina de Turing universal, que puede realizar cualquier cálculo para el que se pueda escribir un conjunto de instrucciones; este es el origen de la computadora digital. Las ideas de Turing fueron llevadas más allá en la década de 1940 por el matemático e ingeniero John von Neumann, quien concibió una máquina "constructora" capaz de ensamblar otra según una descripción. Un constructor universal con su propia descripción construiría una máquina como él mismo. Para completar la tarea, el constructor universal necesita copiar su descripción e insertar la copia en la máquina descendiente. Von Neumann señaló que si la fotocopiadora cometía errores, estas 'mutaciones' proporcionarían cambios heredables en la progenie.
A los 100 años un legado que abarca la ciencia nature.com/turing
Podría decirse que los mejores ejemplos de las máquinas de Turing y von Neumann se encuentran en biología. En ningún otro lugar existen sistemas tan complicados, en los que cada organismo contenga una descripción interna de sí mismo. El concepto de gen como representación simbólica del organismo un código de escritura es una característica fundamental del mundo viviente y debe formar el núcleo de la teoría biológica. Turing murió en 1954, un año después del descubrimiento de la estructura de doble hélice del ADN por James Watson y Francis Crick, pero antes de la posterior revolución de la biología. Ni él ni von Neumann tuvieron ningún efecto directo sobre la biología molecular, pero su trabajo nos permite disciplinar nuestros pensamientos sobre las máquinas, tanto naturales como artificiales. Turing inventó la computadora de programa almacenado, y von Neumann demostró que la descripción está separada del constructor universal. Esto no es trivial. El físico Erwin Schrödinger confundió el programa y el constructor en su libro de 1944 ¿Qué es la vida? , en el que ve a los cromosomas como “plan de arquitecto y oficio de constructor en uno”.
Esto está mal. El script de código contiene solo una descripción de la función ejecutiva, no la función en sí. Por tanto, las ecuaciones de Hodgkin y Huxley representan propiedades del impulso nervioso como un circuito eléctrico, pero los canales y bombas necesarios se construyen a partir de especificaciones en los genes. Nuestros problemas residen en comprender la parte constructora de la maquinaria, y aquí la celda está en el nivel correcto de abstracción. Los biólogos solo hacen tres preguntas a un organismo vivo: ¿cómo funciona? ¿Cómo se construye? ¿Y cómo llegó a ser así? Son problemas encarnados en los campos clásicos de la fisiología, la embriología y la evolución. Y en el centro de todo están las cintas que contienen las descripciones para construir estas máquinas especiales de Turing. ¿Por qué los investigadores están reprimiendo las ideas? Quizás les preocupe proponer una idea que resulte equivocada, porque eso podría perjudicar sus posibilidades de conseguir un ascenso o financiación. Pero como dijo Charles Darwin: “Los hechos falsos son muy perjudiciales para el progreso de la ciencia, porque a menudo perduran mucho; pero los puntos de vista falsos, si están respaldados por alguna evidencia, hacen poco daño, porque todos sienten un placer saludable en probar su falsedad; y cuando se hace esto, se cierra un camino hacia el error y, a menudo, se abre el camino a la verdad al mismo tiempo ". Es decir, es importante tener los hechos correctos, pero las nuevas ideas son útiles, siempre que se basen en pruebas razonables y sean susceptibles de corrección. No me malinterpretes. Necesitamos datos producidos a partir de nuevas tecnologías para avanzar en la comprensión. La importancia de la 'investigación libre de hipótesis' está bien establecida: el filósofo Francis Bacon la propuso como parte de su 'método empírico' en 1620. En su libro Novum Organum, argumentó que el primer paso para establecer la verdad científica debería ser la descripción de hechos a través de observaciones sistemáticas. Pero este es solo el primer paso. Por ejemplo, habría sido una lástima que Darwin hubiera dejado de pensar después de haber descrito las formas y tamaños de los picos de los pinzones y no hubiera propuesto la idea de la evolución por selección natural. El siguiente paso es extraer conocimiento de los datos. Para reenfocarnos en ese objetivo, debemos mejorar nuestros procesos de trabajo, poniendo un mayor énfasis en la teoría y cambiando nuestra cultura de investigación.
Mejores métodos no pueden compensar una teoría mediocre Con mejores preguntas, muchos problemas de reproducibilidad desaparecerán, dice Paul Smaldino. Se ha derramado mucha tinta digital que describe formas de mejorar la replicabilidad en la ciencia. Preinscripción. Información abierta. Código abierto. Todos estos son necesarios, pero insuficientes. La cuestión es que no solo queremos que la ciencia sea reproducible. Queremos que nos ayude a entender mejor el mundo. Para eso, debemos crear mejores hipótesis, y esas requieren mejores modelos y mejores mediciones. Un modelo teórico mío ( PE Smaldino y R. McElreath Soc. Open Sci. 3 , 160384; 2016 ) llegó a los titulares cuando mostró que la mala ciencia, o más bien, una ciencia menos rigurosa que podría producir más artículos en menos tiempo, podría desplazar el tipo más robusto. Esto sugirió que generar mejores hipótesis es al menos tan importante como reducir los errores metodológicos para minimizar los falsos descubrimientos. ¿A quién le importa si puedes replicar un experimento que descubrió que la gente piensa que la habitación hace más calor después de leer una historia sobre gente agradable? ¿Nos ayudará esto a desarrollar mejores teorías? Puede crear una historia divertida sobre ese resultado, pero ¿puede idear la próxima gran pregunta científica? Para generar buenas hipótesis, necesitamos una buena teoría. En un estudio histórico que intentaba replicar 100 artículos de psicología, los estudios de psicología cognitiva se repitieron con el doble de frecuencia que los de psicología social ( Open Science Collaboration. Science 349, aac4716; 2015 ). Creo que eso se debe a que la psicología cognitiva tiene mejores teorías. La buena teoría tiene al menos dos requisitos. Primero, puede usarse para construir modelos matemáticos o computacionales que deriven consecuencias claras y comprobables de nuestras suposiciones. Toda disciplina científica madura los tiene. Los físicos usan modelos de fuerza e impulso para predecir el movimiento de los materiales. Los epidemiólogos utilizan modelos de contagios para comprender la propagación de enfermedades. Los neurocientíficos utilizan modelos de trenes de picos neurales para comprender el flujo de información en el cerebro. Los científicos sociales utilizan modelos de juegos para comprender el surgimiento de normas sociales. En segundo lugar, la buena teoría debe tener sentido, o al menos reconocer sus contradicciones. Considere los estudios de 'precognición' del psicólogo social estadounidense Daryl Bem, que se completaron con notable transparencia ( DJ Bem J. Pers. Soc. Psychol. 100, 407–425; 2011). (El consenso general es que estos estudios no establecieron la presencia de percepción extrasensorial en estudiantes universitarios, sino la prevalencia de estadísticas demasiado flexibles; Bem defiende las estadísticas como sólidas). El trabajo burló ideas bien fundamentadas sobre física y causalidad. Fue similar a cuando los físicos del CERN, el laboratorio de física de partículas de Europa cerca de Ginebra, Suiza, "descubrieron" neutrinos más rápidos que la luz, violando la teoría especial de la relatividad. Debido a que los investigadores requirieron que sus resultados fueran consistentes con un marco teórico amplio, investigaron más profundamente y descubrieron que su hallazgo provenía de un cable de fibra óptica suelto. Para ser claros, no es el caso de que las afirmaciones sorprendentes sean siempre incorrectas, pero tales afirmaciones deben someterse a un escrutinio exhaustivo. Si los modelos útiles producen una mejor ciencia, ¿qué impulsa a mejores modelos? Medidas mejoradas. Considere el trabajo de Tycho Brahe, un gran astrónomo del siglo XVI, quien, sin embargo, pensó que el Sol orbitaba la Tierra.
Sin embargo, sus minuciosas mediciones de las posiciones de los planetas le permitieron a Johannes Kepler determinar que sus órbitas son elípticas. A partir de esto, Isaac Newton pudo formalizar su teoría de la gravitación universal, lo que permitió a los investigadores modernos hacer innumerables preguntas sobre el movimiento planetario, cosmología, balística, ingeniería y más. Si no podemos medir algo de manera confiable, es difícil construir una teoría al respecto. Cantidades como la posición, la masa y el tiempo son relativamente fáciles de medir, al menos en algunas escalas. Los científicos cognitivos pueden medir fácilmente la conductancia de la piel, los tiempos de reacción y el recuento de palabras; esto permite observar regularidades y variaciones y, por tanto, la construcción de modelos comprobables. Otros campos, incluidos aquellos en los que trabajo, han tenido problemas con las mediciones. Los psicólogos intentan medir emociones, identidades y creencias. Los científicos sociales intentan medir la desigualdad, la polarización y la desinformación. Los científicos biomédicos intentan medir los resultados del tratamiento en poblaciones pequeñas y heterogéneas. Creo que muchas ciencias que luchan con la replicación son las que enfrentan los desafíos más urgentes a la hora de tomar medidas claras. El truco no radica simplemente en encontrar una medición que se pueda hacer con precisión o describir de manera transparente, aunque estos factores son importantes. En cambio, los científicos deben encontrar propiedades que puedan medirse de manera confiable, informar la teoría y prestarse a la cuantificación en modelos formales. Idealmente, las teorías sólidas, los modelos formales y las mediciones interactuarán en un círculo virtuoso. Los modelos nos permiten estudiar supuestos sobre el mundo y descubrir sus consecuencias. Los resultados pueden mostrar qué medidas se necesitan para probar los supuestos, y esas medidas pueden proporcionar patrones empíricos que invitan a explicaciones, qué modelos pueden proporcionar. Y así sucesivamente. Necesitamos absolutamente mejores métodos para probar hipótesis, y estos ya se están incorporando a la forma en que se capacita a los científicos y se hace ciencia. Así que ahora es el momento de centrarse en mejores prácticas para la generación de hipótesis. Necesitamos programas de formación en la creación y crítica de modelos, además de programas de financiación y creación de consorcios para inventar y probar medidas que hagan que los modelos sean manejables. Mejores métodos nos ayudarán a obtener las respuestas correctas; los modelos y las medidas asegurarán que hagamos las preguntas correctas.
Una investigación sólida necesita muchas líneas de evidencia. La replicación no es suficiente. Marcus R. Munafò y George Davey Smith defienden la triangulación.
Varios estudios en muchos campos estiman que solo alrededor del 40% de los hallazgos publicados se pueden replicar de manera confiable . Varios financiadores y comunidades están promoviendo formas para que los equipos independientes reproduzcan rutinariamente los hallazgos de otros. Estos esfuerzos son loables, pero insuficientes. Si un estudio está sesgado y las réplicas recapitulan ese enfoque, los hallazgos serán consistentemente incorrectos o sesgados. Considere un ensayo de uso común en el que se usa la producción de una proteína fluorescente para monitorear la actividad celular. Si los compuestos utilizados para manipular la actividad celular también son fluorescentes, como ha sucedido, los resultados fiables y repetibles no arrojarán conclusiones sólidas. Ambos hemos pasado gran parte de nuestras carreras abogando por formas de aumentar la certeza científica. Uno de nosotros (MRM) participó en el trabajo de las agencias de financiación del Reino Unido para desarrollar estrategias para la ciencia reproducible y ayudó a elaborar un manifiesto para la reproducibilidad. Pero la replicación por sí sola nos llevará tan lejos. En algunos casos, la replicación de rutina podría empeorar las cosas. Los hallazgos consistentes pueden tomar el estatus de verdades confirmadas, cuando en realidad reflejan fallas en el diseño del estudio, los métodos o las herramientas analíticas. Creemos que una protección esencial contra las ideas defectuosas es la triangulación. Este es el uso estratégico de múltiples enfoques para abordar una pregunta. Cada enfoque tiene sus propios supuestos, fortalezas y debilidades no relacionadas. Es menos probable que los resultados que coinciden en diferentes metodologías sean artefactos. ¿No es así como debe operar la ciencia? Quizás sea así, pero los científicos en el entorno hipercompetitivo actual a menudo pierden de vista la necesidad de buscar distintas líneas de evidencia. El problema se describió acertadamente en mayo de 2017, cuando el investigador del cáncer William Kaelin lamentó que el objetivo del artículo científico había pasado de probar conclusiones estrechas de múltiples maneras a hacer una serie cada vez más amplia de afirmaciones, cada una basada en evidencia limitada. En consecuencia, dijo, “los papeles son cada vez más como grandes mansiones de paja, en lugar de robustas casas de ladrillo”. La comunidad científica debe abordar esta falta de profundidad de manera estratégica y establecer prácticas que faciliten la triangulación. Específicamente, abogamos por un sistema para apoyar a los equipos multidisciplinarios, cada uno creado en torno a una pregunta común (consulte 'Triangulación: una lista de verificación'). Creemos que esto daría lugar a conocimientos sólidos: mansiones de piedra. TRIANGULACIÓN: UNA LISTA DE VERIFICACIÓN
.Los diferentes enfoques abordan la misma pregunta subyacente. • Se reconocen explícitamente las fuentes clave de sesgo para cada enfoque. • Para cada enfoque, las direcciones esperadas de todas las fuentes clave de sesgo potencial se hacen explícitas, cuando sea posible. • Idealmente, algunos de los enfoques que se comparan tendrán posibles sesgos en direcciones opuestas. • Idealmente, se comparan los resultados de más de dos enfoques, que tienen fuentes clave diferentes y no relacionadas de sesgos potenciales. (Fuente: ref.3)
Robustez engañosa Rara vez vemos proyectos que pretenden probar un punto desde múltiples puntos de vista. La psicología, la epidemiología y las ciencias clínicas están todas orientadas a producir estudios definitivos y estadísticamente significativos centrados en un criterio de valoración que respalde una hipótesis. En algunas partes de las ciencias biológicas, la aceptación de un manuscrito a menudo depende de un estudio "final" que muestre la eficacia animal, por lo que perseguir ese único experimento se vuelve más importante que sondear cuidadosamente una idea desde todas las direcciones. Además, a menudo se presenta que estos estudios tienen implicaciones para la salud humana sin incluir ninguna prueba en humanos. Aunque muchos estudios en las ciencias básicas incluyen algún elemento de triangulación, rara vez lo hacen lo suficiente. En nuestro campo de la epidemiología, existen innumerables ejemplos de hallazgos falsos y persistentes. Los grandes estudios observacionales producen con frecuencia conclusiones precisas que son precisamente erróneas. Una correlación entre X e Y puede ser real en el sentido de que describe genuinamente una asociación observada entre variables, pero es una que no refleja causa y efecto. Ninguna cantidad de replicación o ajuste estadístico puede resolver esto, y uno de nosotros (GDS) ha dedicado más de dos décadas al desarrollo de métodos que respaldan una inferencia causal más sólida en la epidemiología observacional, basándose en disciplinas que van desde las ciencias básicas hasta la economía. Un ejemplo esclarecedor son las curvas en forma de J que se observan con frecuencia y que grafican la correlación entre una afección y el resultado de salud. Por ejemplo, múltiples estudios muestran que las personas que consumen bajos niveles de alcohol son más saludables que los bebedores empedernidos y los abstemios, lo que lleva a varios investigadores a concluir que el consumo moderado de alcohol promueve la salud. Pero otros factores, como que se aconseje a las personas enfermas que dejen de beber, explicarían la misma forma. De manera similar, las observaciones repetidas de que el sobrepeso leve se asocia con la esperanza de vida más alta podrían explicarse por una enfermedad (incluidos los procesos que conducen a la manifestación de una enfermedad, que en sí misma puede resultar en una reducción de peso); por los médicos que tratan a las personas con sobrepeso de forma más agresiva; y por otras características favorables de las personas con sobrepeso, como menores tasas de tabaquismo. ¿Cómo se puede saber que una relación constantemente observada entre un comportamiento y un resultado de salud es causal? Un ejemplo en el que la triangulación ha ayudado es al establecer que fumar durante el embarazo da como resultado bebés con menor peso al nacer. Eso es diferente de la simple observación de que las mujeres que fuman tienen más probabilidades de tener bebés que pesen menos. Los fumadores suelen tener otras características que también se asocian con el bajo peso al nacer, como bajos ingresos, menos educación o más consumo de drogas.
Se necesitaron muchas líneas de evidencia para demostrar que el tabaquismo materno da como resultado bebés con bajo peso al nacer. Crédito: BSIP / UIG / Getty
La triangulación significa elegir explícitamente enfoques analíticos que dependan de diferentes supuestos. Por ejemplo, si la pareja de una mujer fuma durante su embarazo, se aplican muchos de los mismos factores de confusión que en el caso del tabaquismo materno, pero la asociación con un peso más bajo al nacer es mucho más débil. El peso al nacer también se puede analizar de acuerdo con los niveles de impuestos a los cigarrillos en los estados de EE. UU., Lo que reduce los efectos de los factores de confusión. Y los análisis pueden comparar el peso al nacer de los hermanos cuya madre fumó durante un embarazo pero no en otro. La aleatorización mendeliana es una técnica desarrollada específicamente para probar las relaciones causales. En las cohortes agrupadas en función de si las personas portan o no una variante genética asociada a un mayor consumo de cigarrillos en los fumadores, las madres que fuman y portan la variante tienden a tener bebés que pesan menos; los no fumadores con la misma variante no lo hicieron. Tomados en conjunto, estos estudios dejan en claro que el tabaquismo materno afecta directamente el peso al nacer. Fijación de replicación La replicación ha recibido una atención considerable; la triangulación no lo ha hecho. Quizás una de las razones por las que la replicación ha captado tanto interés es la idea, a menudo repetida, de que la falsificación está en el corazón de la empresa científica. Esta idea fue popularizada por la máxima de Karl Popper de la década de 1950 de que las teorías nunca pueden ser probadas, solo falsificadas. Sin embargo, pocos experimentos, incluidos los intentos de replicación, se establecen explícitamente para falsificar una teoría. De hecho, nos preocupa que un énfasis excesivo en la repetición de experimentos pueda proporcionar una sensación de certeza infundada sobre los hallazgos que se basan en un único enfoque. Además, los filósofos de la ciencia han avanzado desde Popper. Entre las mejores descripciones de cómo trabajan los científicos se incluye lo que el epistemólogo Peter Lipton llamó en 1991 "inferencia a la mejor explicación", o la búsqueda de la explicación "más hermosa". Esto se basa en ideas más antiguas que defendían el razonamiento abductivo sobre el deductivo, buscando explicaciones probables en lugar de derivar explicaciones de los primeros principios. Este espíritu también está capturado en la idea de consiliencia presentada por el erudito William Whewell a mediados del siglo XIX y popularizada en la década de 1990 por el naturalista EO Wilson. Esto postula que las teorías sólidas surgen de la síntesis de múltiples líneas de evidencia, como cuando Charles Darwin propuso la evolución por selección natural.
A diferencia de la consiliencia, la triangulación sugiere el uso deliberado de diferentes métodos. Es el enfoque de la inferencia que se alinea más estrechamente con la cantidad de filósofos que sienten que los científicos llegan a comprender la realidad. Pero a la mayoría de los científicos les costaría mucho describirlo. Los investigadores suelen recibir una amplia formación en métodos y diseño experimentales, pero poca en los enfoques de la inferencia causal. Se quedan sin un marco para guiar la búsqueda científica. Cambio de crédito La triangulación generalmente requiere aportes de múltiples metodologías o disciplinas. Un elegante ejemplo histórico es la deriva continental. A principios de la década de 1900, el geofísico Alfred Wegener notó que la forma de la costa oeste de África parece encajar con la de la costa este de América del Sur. Buscó evidencia para apoyar la teoría de la deriva continental de una amplia gama de fuentes, como la paleontología (aparecieron fósiles del mismo período en ambos continentes) y la geología (las marcas de los glaciares indicaron que los continentes alguna vez estuvieron cerca). En el entorno actual, los científicos tendrían que contribuir a proyectos multidisciplinarios, con estudios que proporcionen distintas líneas de evidencia. Fomentar este enfoque requerirá cambios fundamentales en la forma en que se atribuye el crédito y en la forma en que se lleva a cabo la revisión por pares. En el sistema actual, pocas posiciones de autoría cuentan mucho para el crédito: en la ciencia biomédica, por ejemplo, generalmente recae solo en los autores correspondientes y otros autores destacados, así como en los primeros autores. Para apoyar la triangulación, recomendamos un cambio a un modelo de contribución, similar a los créditos que aparecen al final de una película: una larga lista de personas con sus contribuciones descritas de manera completa y específica. Esto requerirá que los académicos renuncien potencialmente a puestos de "autor principal". También facilitaría a los investigadores que se inician la carrera especificar su contribución única a un artículo cuando soliciten un ascenso u otro puesto. La revisión por pares también cambiaría. En lugar de que unos pocos revisores examinen el manuscrito completo, varios lo harían, cada uno concentrándose de cerca en un subestudio en particular. De esta manera, las presentaciones que utilizan múltiples y diversas técnicas recibirán un escrutinio adecuado, lo que ayudará a evitar la publicación de artículos que son como “grandes mansiones de paja”. Finalmente, los patrocinadores, las instituciones de investigación y las revistas deberían apoyar explícitamente la publicación de artículos de mayor peso. O quizás necesitemos desarrollar formas formales, más allá de las simples citas, para vincular y reconocer explícitamente los subestudios que triangulan una sola pregunta. Una propuesta publicada a principios del año pasado abogaba por una nueva categoría de artículo que combina el trabajo de generación de hipótesis con estudios confirmatorios sólidos y pre registrados realizados por laboratorios independientes calificados. Los artículos que implican la triangulación de la forma que proponemos, claramente, a menudo implicarán un trabajo considerable coordinando grupos de investigadores de diferentes disciplinas. Los revisores y los comités de tenencia deben encontrar formas de valorarlos adecuadamente. ¿Cómo? Integrar a los ingenieros y experimentadores que están desarrollando nuevas tecnologías y métodos profundamente en los problemas biológicos. Es a través de una profunda familiaridad con la biología, no simplemente un impulso para recopilar más y más datos, que se harán preguntas importantes. Estas preguntas mantendrán la pasión de los investigadores por seguir investigando datos hasta que surjan patrones y conocimientos, y también influirán en los datos que se recopilen.
Hay otros pasos necesarios. Desarrollar herramientas analíticas adecuadas, incluidos programas para la minería de datos y el aprendizaje automático. Asegúrese de que los datos sean utilizables, estén debidamente anotados y se compartan abiertamente. Modelar los componentes moleculares y celulares involucrados en un fenómeno biológico, para permitir el análisis de comportamientos e interacciones dinámico. A veces, simplemente escribir las ecuaciones sin buscar soluciones puede ser útil, simplemente porque impone un mayor rigor en la construcción de modelos. Se necesita más teoría. Mis ejemplos para esto incluyen a los biólogos evolucionistas Bill Hamilton y John Maynard Smith, y los genetistas Barbara McClintock y Francis Crick. Sus artículos están impregnados de una intuición biológica ricamente informada, lo que hace que leerlos sea un placer. Este tipo de pensamiento acelerará el cambio de la descripción al conocimiento. Los teóricos pueden encontrar un terreno fértil al considerar el flujo de información a través de los sistemas vivos, lo que puede ayudarlos a comprender mejor la avalancha de datos biológicos. Tratar de dejarse guiar por la teoría y el conocimiento probablemente requerirá cambios en la cultura de la investigación. Se debe fomentar la teorización y se deben incluir teorías en los artículos experimentales para poner los datos en contexto. Los procesos editoriales y de financiación no deben descartar los intentos de hacer esto como especulaciones ociosas. Como dijo Darwin, permite que las ideas sean atacadas y descartadas o modificadas. Una especie de 'tiranía del campo' inhibe en ocasiones la generación de explicaciones distintas al consenso actual, pero esto es un error. Si las nuevas ideas no son satisfactorias, pronto se eliminarán y se avanzará. No se deben tolerar los hechos falsos, pero las revistas y los patrocinadores de la investigación deben estar abiertos a nuevas ideas e interpretaciones razonables, particularmente si difieren del consenso actual. Los comités de evaluación deben ser tolerantes cuando se demuestre que algunas de las ideas de las personas que están considerando para promoción o financiamiento son incorrectas. Tales enfoques harán avanzar no solo la investigación, sino también la enseñanza. Los estudiantes estarán mejor motivados y se sentirán más inspirados si se les enseña que la biología tiene ideas y que vale la pena hablar de ellas. Martin Eduardo Lucione https://facebook.com/Ecoalfabetizacion Extraído Nature Paul Nurse - Sydney Brenner - Marcus R. Munafò y George Davey Smith