Brownstone » Artículos del Instituto Brownstone » La plausibilidad, pero no la ciencia, ha dominado las discusiones públicas sobre la pandemia de Covid
plausibilidad no ciencia

La plausibilidad, pero no la ciencia, ha dominado las discusiones públicas sobre la pandemia de Covid

COMPARTIR | IMPRIMIR | EMAIL

“Los ataques contra mí, francamente, son ataques contra ciencia.” ~ Anthony Fauci, 9 de junio de 2021 (MSNBC).

Absurdo.

Por un lado, el Dr. Fauci no ha informado con precisión sobre cuestiones científicas durante la pandemia de covid-19. Para otro, la dialéctica esencial de la ciencia es argumentar, cuestionar, debatir. Sin debate, la ciencia no es más que propaganda. 

Sin embargo, uno puede preguntarse, ¿cómo ha sido posible presentar material técnico al público estadounidense, si no al público internacional, durante casi tres años y lograr un entendimiento general de que los asuntos eran "científicos", cuando en realidad no lo eran? ? Afirmo que lo que se ha alimentado a estos públicos a través de los medios de comunicación tradicionales en el transcurso de la pandemia ha sido en gran medida plausible, pero no ciencia, y que tanto el público estadounidense como el internacional, así como la mayoría de los médicos y científicos mismos, no pueden decir la diferencia. Sin embargo, la diferencia es fundamental y profunda.

La ciencia comienza con teorías, hipótesis, que tienen ramificaciones empíricas examinables. Sin embargo, esas teorías no son ciencia; ellos motivar Ciencias. La ciencia ocurre cuando los individuos hacen experimentos o hacen observaciones que se relacionan con las implicaciones o ramificaciones de las teorías. Esos hallazgos tienden a respaldar o refutar las teorías, que luego se modifican o actualizan para ajustarse a las nuevas observaciones o se descartan si la evidencia convincente muestra que no describen la naturaleza. A continuación se repite el ciclo. Ciencia: es la realización de trabajo empírico u observacional para obtener evidencia que confirme o refute teorías.

En general, las teorías tienden a ser declaraciones plausibles que describen algo específico sobre cómo opera la naturaleza. La plausibilidad está en el ojo del espectador, ya que lo que es plausible para un experto con conocimientos técnicos puede no serlo para un profano. Por ejemplo, tal vez demasiado simplificado, el heliocentrismo no era plausible antes de que Nicolaus Copernicus publicara su teoría en 1543, y no fue particularmente plausible después durante bastante tiempo, hasta que Johannes Kepler entendió que las mediciones astronómicas realizadas por Tycho Brahe sugirieron refinar las órbitas circulares copernicanas a elipses. , así como que las reglas matemáticas parecían gobernar los movimientos planetarios a lo largo de esas elipses; sin embargo, las razones para esas reglas matemáticas, incluso si fueran buenas descripciones de los movimientos, no eran plausibles hasta que Isaac Newton en 1687 postuló la existencia de un sistema gravitatorio universal. fuerza entre masas, junto con una ley de distancia del inverso del cuadrado proporcional a la masa que gobierna la magnitud de la atracción gravitacional, y observó numerosos fenómenos cuantitativos consistentes con y apoyando esta teoría.

Para nosotros hoy, difícilmente pensamos en la plausibilidad de las órbitas heliocéntricas elípticas del sistema solar, porque los datos de observación que abarcan 335 años han sido muy consistentes con esa teoría. Pero podríamos negarnos a pensar que es plausible que la luz viaje simultáneamente como partículas y ondas, y que hacer mediciones de la luz, lo que hacemos como observadores, determina si vemos el comportamiento de las partículas o el comportamiento de las ondas, y podemos elegir observar cualquiera de las partículas. u ondas, pero no ambas al mismo tiempo. La naturaleza no es necesariamente plausible.

Pero de todos modos, las teorías plausibles son fáciles de creer, y ese es el problema. De eso nos hemos alimentado durante casi tres años de la pandemia del Covid-19. De hecho, sin embargo, hemos sido alimentados con plausibilidad en lugar de ciencia durante mucho más tiempo.

Ciencia de culto a la carga

Los charlatanes que pretendían doblar cucharas con la mente o que afirmaban estudiar una "percepción extrasensorial" no comprobable e irrepetible fueron muy populares en las décadas de 1960 y 1970. Las extrañas creencias sobre lo que la “ciencia” podría establecer alcanzaron tal nivel que el premio Nobel de física Richard Feynman pronunció el discurso de graduación de Caltech de 1974 (Feynman, 1974) lamentando tales creencias irracionales. Sus comentarios no estaban dirigidos al público en general, sino a los estudiantes graduados de Caltech, muchos de los cuales estaban destinados a convertirse en científicos académicos.

En su discurso, Feynman describió cómo los habitantes de las islas de los Mares del Sur, después de la Segunda Guerra Mundial, imitaron a los soldados estadounidenses estacionados allí durante la guerra que habían guiado los aterrizajes de aviones con suministros. Los residentes de la isla, utilizando materiales locales, reprodujeron la forma y los comportamientos de lo que habían presenciado de los soldados estadounidenses, pero no llegaron suministros.

En nuestro contexto, el punto de Feynman sería que hasta que una teoría tenga evidencia empírica objetiva que la respalde, seguirá siendo solo una teoría, sin importar cuán plausible pueda parecer para todos los que la consideran. A los isleños les faltaba el hecho crucial de que no entendían cómo funcionaba el sistema de suministro, a pesar de lo plausible que era para ellos su reproducción. Que Feynman se sintió obligado a advertir a los estudiantes graduados de Caltech sobre la diferencia entre la plausibilidad y la ciencia, lo que sugiere que esta diferencia no se aprendió adecuadamente en su educación en el Instituto. No se enseñó explícitamente cuando este autor era estudiante allí en esos años, pero de alguna manera, se esperaba que lo aprendiésemos “por ósmosis”.

Evidencia basada en medicina

Tal vez no haya una farsa de plausibilidad más grande hoy en día que “evidencia basada en medicina” (EBM). Este término fue acuñado por Gordon Guyatt en 1990, después de que su primer intento, “Medicina científica”, no lograra aceptación el año anterior. Como epidemiólogo universitario en 1991, fui insultado por la arrogancia y la ignorancia en el uso de este término, MBE, como si la evidencia médica fuera de alguna manera “no científica” hasta que se proclamó una nueva disciplina con nuevas reglas para la evidencia. No fui el único que criticó la MBE (Sackett et al., 1996), aunque gran parte de esa respuesta negativa parece haberse basado en la pérdida del control narrativo más que en una revisión objetiva de lo que la investigación médica había logrado realmente sin la MBE.

El conocimiento médico occidental se ha acumulado durante miles de años. En la Biblia hebrea (Éxodo 21:19), “Cuando dos partes riñen y una golpea a la otra… la víctima será completamente sanada” [mi traducción] lo que implica que existían individuos que tenían tipos de conocimiento médico y que algún grado de eficacia inherente. Hipócrates, en el siglo V-IV a. C., sugirió que el desarrollo de la enfermedad podría no ser aleatorio sino relacionado con la exposición al medio ambiente o con ciertos comportamientos. En esa época, había muchos de lo que hoy consideraríamos contraejemplos de la buena práctica médica. Sin embargo, fue un comienzo, pensar en la evidencia racional para el conocimiento médico.

James Lind (1716-1794) abogó por la protección contra el escorbuto mediante el consumo de cítricos. Este tratamiento era conocido por los antiguos y, en particular, había sido recomendado anteriormente por el cirujano militar inglés John Woodall (1570-1643), pero Woodall fue ignorado. Lind recibe el crédito porque en 1747 llevó a cabo un pequeño pero exitoso ensayo controlado no aleatorio de naranjas y limones frente a otras sustancias entre 12 pacientes con escorbuto.

Durante la década de 1800, el uso de Edward Jenner de la viruela bovina como vacuna contra la viruela se elaboró ​​mediante el cultivo en otros animales y se puso en uso general en brotes, de modo que en el momento del caso de la Corte Suprema de 1905 de Jacobson v. Massachusetts, el Presidente del Tribunal Supremo podría afirmar que las autoridades médicas acordaron que la vacunación contra la viruela era un procedimiento comúnmente aceptado. Las revistas médicas iniciaron publicaciones periódicas también en el siglo XIX. por ejemplo, el un artículo del XNUMX de Lancet, comenzó a publicar en 1824. El conocimiento médico acumulado comenzó a compartirse y debatirse de manera más general y amplia.

Avance rápido a la década de 1900. En 1914-15, Joseph Goldberger (1915) llevó a cabo un ensayo de intervención dietética no aleatorio que concluyó que la pelagra era causada por la falta de niacina en la dieta. En la década de 1920, se desarrollaron vacunas contra la difteria, la tos ferina, la tuberculosis y el tétanos. Se extrajo insulina. Se desarrollaron vitaminas, incluida la vitamina D para prevenir el raquitismo. En la década de 1930, los antibióticos comenzaron a crearse y usarse de manera efectiva. En la década de 1940, se desarrolló el paracetamol, al igual que las quimioterapias, y el estrógeno conjugado comenzó a usarse para tratar los sofocos de la menopausia. Los nuevos medicamentos, vacunas y dispositivos médicos efectivos crecieron exponencialmente en las décadas de 1950 y 1960. Todo sin EBM.

En 1996, respondiendo a las críticas a la EBM, David Sackett et al. (1996) intentó explicar sus principios generales. Sackett afirmó que la EBM se derivaba de que “los buenos médicos utilizan tanto la experiencia clínica individual como la mejor evidencia externa disponible”. Esta es una implicación de plausibilidad anodina, pero ambos componentes son básicamente incorrectos o al menos engañosos. Al formular esta definición en términos de lo que deberían hacer los médicos individuales, Sackett estaba dando a entender que los médicos individuales deberían utilizar sus propias observaciones y experiencia clínicas. Sin embargo, es probable que la representatividad probatoria general de la experiencia clínica de un individuo sea débil. Al igual que otras formas de evidencia, la evidencia clínica debe recopilarse, revisarse y analizarse sistemáticamente para formar una síntesis del razonamiento clínico, que luego proporcionaría el componente clínico de la evidencia médica científica.

Una falla mayor del razonamiento probatorio es la declaración de Sackett de que se debe usar "la mejor evidencia externa disponible" en lugar de todo el evidencia externa válida. Los juicios sobre lo que constituye la "mejor" evidencia son muy subjetivos y no necesariamente arrojan resultados generales que sean cuantitativamente los más exactos y precisos (Hartling et al., 2013; Bae, 2016). Al formular sus "aspectos" ahora canónicos del razonamiento causal probatorio, Sir Austin Bradford Hill (1965) no incluyó un aspecto de lo que constituiría la "mejor" evidencia, ni sugirió que los estudios deberían medirse o categorizarse por "calidad de estudio". ” ni siquiera que algunos tipos de diseños de estudio puedan ser intrínsecamente mejores que otros. En el Manual de referencia sobre evidencia científica, Margaret Berger (2011) afirma explícitamente, “… muchos de los organismos científicos más respetados y prestigiosos (como la Agencia Internacional para la Investigación del Cáncer (IARC), el Instituto de Medicina, el Consejo Nacional de Investigación y el Instituto Nacional para Ciencias de la Salud Ambiental) consideran toda la evidencia científica relevante disponible, tomada en su conjunto, para determinar qué conclusión o hipótesis con respecto a una afirmación causal está mejor respaldada por el cuerpo de evidencia”. Este es exactamente el enfoque de Hill; sus aspectos del razonamiento causal han sido muy utilizados durante más de 50 años para razonar desde la observación hasta la causalidad, tanto en la ciencia como en el derecho. Que la MBE se base en la selección subjetiva de la "mejor" evidencia es un método plausible pero no científico.

Con el tiempo, el enfoque de EBM para considerar selectivamente la "mejor" evidencia parece haber sido "simplificado", primero al colocar los ensayos controlados aleatorios (ECA) en la parte superior de una pirámide de todos los diseños de estudio como el supuesto diseño "estándar de oro", y más tarde, como el único tipo de estudio afirmado en el que se puede confiar para obtener estimaciones imparciales de los efectos. Todas las demás formas de evidencia empírica están "potencialmente sesgadas" y, por lo tanto, no son confiables. Esta es una presunción de plausibilidad como mostraré a continuación.

Pero es tan plausible que se enseña de forma rutinaria en la educación médica moderna, por lo que la mayoría de los médicos solo consideran la evidencia RCT y descartan todas las demás formas de evidencia empírica. Es tan plausible que este autor tuviera una batalla verbal en el aire al respecto con un comentarista de televisión sin educación médica que no proporcionó más evidencia que la plausibilidad (Whelan, 2020): ¿No es "simplemente obvio" que si aleatoriza sujetos, cualquier las diferencias deben ser causadas por el tratamiento, y no se puede confiar en ningún otro tipo de estudios? Obvio, sí; cierto, no

¿Quién se beneficia de un enfoque único y obsesivo en la evidencia RCT? Los ECA son muy costosos de realizar si se quiere que sean epidemiológicamente válidos y estadísticamente adecuados. Pueden costar millones o decenas de millones de dólares, lo que limita su atractivo en gran medida a las empresas que promocionan productos médicos que probablemente generen ganancias sustancialmente mayores que esos costos. Históricamente, el control farmacéutico y la manipulación de la evidencia de RCT en el proceso de regulación proporcionaron un enorme impulso en la capacidad de impulsar productos a través de la aprobación regulatoria en el mercado, y la motivación para hacerlo aún continúa hoy.

Este problema fue reconocido por el Congreso, que aprobó la Ley de Modernización de la Administración de Drogas y Alimentos de 1997 (FDAMA) que estableció en 2000 la ClinicalTrials.gov sitio web para el registro de todos los ensayos clínicos realizados bajo aplicaciones de nuevos medicamentos en investigación para examinar la eficacia de los medicamentos experimentales para pacientes con afecciones graves o potencialmente mortales (Biblioteca Nacional de Medicina, 2021). Por razones relacionadas que involucran conflictos de intereses en ensayos clínicos, el sitio web de ProPublica "Dollars for Docs" (Tigas et al., 2019) que cubre los pagos de las compañías farmacéuticas a los médicos durante los años 2009-2018 y el sitio web OpenPayments (Centros de Servicios de Medicare y Medicaid , 2022) que cubren los pagos desde 2013 hasta 2021 se establecieron y se pusieron a disposición del público. Estos sistemas de información se crearon porque la “plausibilidad” de que la aleatorización automáticamente hace que los resultados del estudio sean precisos e imparciales se reconoció como insuficiente para hacer frente a las artimañas de la investigación y los motivos inapropiados de conflicto de intereses del investigador.

Si bien estos intentos de reformar o limitar la corrupción en la investigación médica han ayudado, persiste la tergiversación de la evidencia bajo la apariencia de EBM. Uno de los peores ejemplos fue un artículo publicado en el New England Journal of Medicine 13 de febrero de 2020, al comienzo de la pandemia de Covid-19, titulado "La magia de la aleatorización versus el mito de la evidencia del mundo real", por cuatro conocidos estadísticos médicos británicos que tienen vínculos sustanciales con compañías farmacéuticas (Collins et al. ., 2020). Probablemente se escribió en enero de 2020, antes de que la mayoría de la gente supiera que se avecinaba la pandemia. Este documento afirma que la aleatorización crea automáticamente estudios sólidos y que todos los estudios no aleatorizados son basura probatoria. Al momento de leerlo, sentí que era una diatriba contra toda mi disciplina, la epidemiología. Inmediatamente me ofendí, pero luego comprendí los serios conflictos de intereses de los autores. Representar que solo la evidencia de RCT altamente inasequible es apropiada para las aprobaciones regulatorias proporciona una herramienta para que las compañías farmacéuticas protejan sus productos patentados costosos y altamente rentables contra la competencia de medicamentos genéricos aprobados fuera de etiqueta efectivos y económicos cuyos fabricantes no podrían pagar a gran escala. ECA.

La aleatorización

Entonces, ¿cuál es la falla de la aleatorización a la que he estado aludiendo, que requiere un examen más profundo para comprender la validez relativa de los estudios RCT frente a otros diseños de estudio? El problema radica en la comprensión de confuso. La confusión es una circunstancia epidemiológica en la que la relación entre una exposición y un resultado no se debe a la exposición, sino a un tercer factor (el confusor), al menos en parte. El factor de confusión está asociado de alguna manera con la exposición, pero no es el resultado de la exposición.

En tales casos, la aparente relación exposición-resultado se debe realmente a la relación confusor-resultado. Por ejemplo, un estudio sobre el consumo de alcohol y el riesgo de cáncer podría verse potencialmente confundido por el historial de tabaquismo que se correlaciona con el consumo de alcohol (y no es causado por el consumo de alcohol), pero que en realidad impulsa el aumento del riesgo de cáncer. Un simple análisis del alcohol y el riesgo de cáncer, ignorando el tabaquismo, mostraría una relación. Sin embargo, una vez controlado o ajustado el efecto del tabaquismo, la relación del alcohol con el riesgo de cáncer disminuiría o desaparecería.

El propósito de la aleatorización, de equilibrar todo entre los grupos de tratamiento y control, es eliminar posibles factores de confusión. ¿Hay alguna otra forma de eliminar posibles factores de confusión? Sí: medir los factores en cuestión y ajustarlos o controlarlos en análisis estadísticos. Por lo tanto, es evidente que la aleatorización tiene exactamente un beneficio posible que no está disponible para los estudios no aleatorizados: el control de unfactores de confusión medidos. Si las relaciones biológicas, médicas o epidemiológicas no se entienden por completo sobre un resultado de interés, es posible que no se midan todos los factores relevantes, y algunos de esos factores no medidos aún podrían confundir una asociación de interés.

Así, la aleatorización, En teoria, elimina la posible confusión por factores no medidos como explicación de una asociación observada. Ese es el argumento de la plausibilidad. Sin embargo, la pregunta se refiere a qué tan bien funciona la aleatorización en la realidad, y quién necesita exactamente ser equilibrado por la aleatorización. Los ensayos clínicos aplican la aleatorización a todos los sujetos participantes para determinar las asignaciones de grupos de tratamiento. Si en el evento de resultado del estudio los individuos constituyen un subconjunto del estudio total, entonces esas personas de resultado también deben equilibrarse en sus posibles factores de confusión. Por ejemplo, si todas las muertes en el grupo de tratamiento son de hombres y todas las del grupo de placebo son de mujeres, es probable que el género confunda el efecto del tratamiento. 

El problema es que los estudios RCT esencialmente nunca demuestran explícitamente una aleatorización adecuada de sus sujetos de resultado, y lo que pretenden mostrar de la aleatorización para sus grupos de tratamiento totales casi siempre es científicamente irrelevante. Es probable que este problema surja porque las personas que realizan estudios de RCT y los revisores y editores de revistas que analizan sus artículos no comprenden suficientemente los principios epidemiológicos.

En la mayoría de las publicaciones de ECA, los investigadores proporcionan una tabla descriptiva inicial superficial de los grupos de tratamiento y placebo (como columnas), frente a varios factores medidos (como filas). Es decir, las distribuciones porcentuales de los sujetos de tratamiento y de placebo por sexo, grupo de edad, raza/etnicidad, etc. La tercera columna de estas tablas suele ser la estadística del valor p para la diferencia de frecuencia entre los sujetos de tratamiento y de placebo en cada factor medido. En términos generales, esta estadística estima la probabilidad de que una diferencia de frecuencia tan grande entre los sujetos del tratamiento y los del placebo pudiera haber ocurrido por casualidad. Dado que los sujetos fueron asignados a sus grupos de tratamiento completamente al azar, el examen estadístico del proceso de aleatorización es tautológico e irrelevante. El hecho de que en algunos ECA, algunos factores puedan parecer más extremos de lo que permitiría el azar bajo la aleatorización se debe solo a que se han examinado múltiples factores en las filas en busca de diferencias distributivas y, en tales circunstancias, se debe invocar el control estadístico de las comparaciones múltiples.

Lo que se necesita en la tercera columna de la tabla descriptiva RCT no es el valor p, sino una medida de la magnitud de la confusión del factor de fila particular. La confusión no se mide por cómo ocurrió, sino por lo grave que es. En mi experiencia como epidemiólogo de carrera, la mejor medida individual de confusión es el cambio porcentual en la magnitud de la relación tratamiento-resultado con vs sin ajuste por el factor de confusión. Entonces, por ejemplo, si con ajuste por género, el tratamiento reduce la mortalidad en un 25 % (riesgo relativo = 0.75), pero sin ajuste la reduce en un 50 %, entonces la magnitud de la confusión por género sería (0.75 – 0.50)/0.75 = 33 % Los epidemiólogos generalmente consideran más de un 10% de cambio con tal ajuste para implicar que la confusión está presente y debe controlarse.

Como he observado, la mayoría de las publicaciones de ECA no proporcionan la magnitud de las estimaciones de confusión para sus grupos de tratamiento generales, y nunca para sus sujetos de resultado. Por lo tanto, no es posible saber si los sujetos de resultado se han aleatorizado adecuadamente para todos los factores que figuran en la tabla descriptiva del artículo. Pero el posible defecto fatal de los estudios RCT, lo que puede hacer que no sean mejores que los estudios no aleatorizados y, en algunos casos, peores, es que la aleatorización solo funciona cuando se ha aleatorizado un gran número de sujetos (Deaton y Cartwright, 2018), y esto se aplica específicamente a los sujetos de resultado, no solo para el estudio total. 

Considere lanzar una moneda al aire diez veces. Podría salir al menos siete caras y tres cruces, o viceversa, fácilmente por casualidad (34%). Sin embargo, la magnitud de esta diferencia, 7/3 = 2.33, es potencialmente bastante grande en términos de posible confusión. Por otro lado, la ocurrencia de la misma magnitud de 2.33 de 70 o más caras de 100 lanzamientos sería poco frecuente, p = 000078. Para que la aleatorización funcione, debe haber un número considerable de eventos de resultado tanto en el grupo de tratamiento como en el de placebo, digamos 50 o más en cada grupo. Este es el principal defecto potencial tácito de los estudios de RCT que hace que su argumento de plausibilidad sea inútil, porque los estudios de RCT generalmente están diseñados para tener suficiente poder estadístico para encontrar la significación estadística de su resultado primario si el tratamiento funciona según lo previsto, pero no están diseñados para tener suficiente resultado. sujetos para reducir la confusión potencial a menos del 10%, digamos.

Un ejemplo importante de este problema se puede ver en el primer resultado de RCT de eficacia publicado para la vacuna Pfizer BNT162b2 mRNA Covid-19 (Polack et al., 2020). Este estudio se consideró lo suficientemente grande (43,548 19 participantes aleatorizados) y lo suficientemente importante (Covid-XNUMX) que, debido a su supuesta plausibilidad de ECA, aseguró la publicación en el "prestigioso" New England Journal of Medicine. El resultado principal del estudio fue la aparición de Covid-19 con inicio al menos siete días después de la segunda dosis de la vacuna o la inyección de placebo. Sin embargo, aunque observó 162 casos entre los sujetos del placebo, suficiente para una buena aleatorización, encontró solo ocho casos entre los sujetos de la vacuna, ni de lejos lo suficiente como para que la aleatorización haya hecho algo para controlar la confusión. 

A partir de la experiencia epidemiológica general, es poco probable que un riesgo relativo estimado tan grande (aproximadamente 162/8 = 20) se deba enteramente a la confusión, pero la precisión del riesgo relativo o su efectividad implícita ((20 - 1)/20 = 95 %) está en duda. Que se haya observado que esta vacuna en uso no es tan efectiva para reducir el riesgo de infección no es sorprendente dada la debilidad del resultado del estudio debido al tamaño inadecuado de la muestra para asegurar que la aleatorización funcionó para los sujetos de resultado tanto en el grupo de tratamiento como en el de placebo.

Esta "zambullida en la maleza" de la epidemiología ilumina por qué un estudio RCT con menos de, digamos, 50 sujetos de resultado en todos y cada uno de los brazos de tratamiento del ensayo tiene poco o ningún derecho a evitar posibles factores de confusión por factores no medidos. Pero también hace evidente por qué tal juicio puede ser peor que un ensayo controlado no aleatorizado de la misma exposición y resultado. En los ensayos no aleatorios, los investigadores saben que muchos factores pueden, como posibles factores de confusión, influir en la ocurrencia del resultado, por lo que miden todo lo que consideran relevante para luego ajustar y controlar esos factores en los análisis estadísticos. 

Sin embargo, en los ECA, los investigadores suelen pensar que la aleatorización ha sido exitosa y, por lo tanto, realizan análisis estadísticos no ajustados, lo que proporciona resultados potencialmente confusos. Cuando vea que los ECA se muestran como estudios "grandes" debido a sus decenas de miles de participantes, mire más allá de eso, a la cantidad de eventos de resultados primarios en los brazos de tratamiento del ensayo. Los ensayos con un pequeño número de eventos de resultado primario son inútiles y no deben publicarse, y mucho menos depender de ellos para consideraciones de política o de salud pública.

Evidencia empírica

Después de leer todo lo anterior, podría pensar que estos argumentos sobre los ensayos aleatorizados frente a los no aleatorizados son muy plausibles, pero ¿qué pasa con la evidencia empírica que los respalda? Para ello, se llevó a cabo un análisis muy exhaustivo por parte de la Base de Datos de Revisiones Sistemáticas de la Biblioteca Cochrane (Anglemyer et al., 2014). Este estudio buscó exhaustivamente en siete bases de datos de publicaciones electrónicas durante el período comprendido entre enero de 1990 y diciembre de 2013, para identificar todos los artículos de revisión sistemática que compararon "estimaciones cuantitativas del tamaño del efecto que miden la eficacia o la efectividad de las intervenciones probadas en ensayos [aleatorizados] con aquellas probadas en estudios observacionales. ” En efecto, un metanálisis de metanálisis, el análisis incluyó muchos miles de comparaciones de estudios individuales resumidas en 14 artículos de revisión. 

El resultado final: una diferencia promedio de solo el 8 % (límites de confianza del 95 %, −4 % a 22 %, no estadísticamente significativo) entre los ECA y los resultados de los ensayos no aleatorios correspondientes. En resumen, este conjunto de conocimientos —tanto los empíricos como los basados ​​en principios epidemiológicos— demuestra que, contrariamente a la llamada “plausibilidad”, los ensayos aleatorios no tienen una clasificación automática como patrón oro de la evidencia médica o como la única forma aceptable de evaluación. evidencia médica, y que cada estudio debe ser examinado crítica y objetivamente por sus propias fortalezas y debilidades, y por cuánto esas fortalezas y debilidades son importantes para las conclusiones extraídas.

Otras plausibilidades

Durante la pandemia de Covid-19, se han utilizado muchas otras afirmaciones de evidencia científica para justificar las políticas de salud pública, incluso para la declaración misma de la emergencia pandémica. Detrás de muchos de estos ha estado el principio plausible pero falaz de que el objetivo de la gestión de pandemias de salud pública es minimizar la cantidad de personas infectadas por el virus SARS-CoV-2. 

Esa política puede parecer obvia, pero es incorrecta como política general. Lo que hay que minimizar son las consecuencias nocivas de la pandemia. Si la infección provoca síntomas desagradables o molestos para la mayoría de las personas, pero no problemas graves o a largo plazo, como suele ser el caso con el SARS-CoV-2, particularmente en la era Omicron, entonces no habría ningún beneficio tangible para la salud pública en general. intervenciones y limitaciones que infrinjan los derechos naturales o patrimoniales de tales individuos y que causen daños en ellos mismos. 

Las sociedades occidentales, incluido EE. UU., toman con calma las oleadas anuales de infecciones respiratorias sin emergencias pandémicas declaradas, a pesar de que producen millones de personas infectadas cada año, porque las consecuencias de la infección generalmente se consideran médicamente menores, incluso teniendo en cuenta algunas decenas de miles de muertes. anualmente. 

En los primeros meses de la pandemia de Covid-19 se estableció que el riesgo de mortalidad por infección variaba en más de 1,000 veces según la edad, y que las personas sin afecciones de salud crónicas como diabetes, obesidad, enfermedades cardíacas, renales, antecedentes de cáncer, etc., tenían un riesgo insignificante de mortalidad y un riesgo muy bajo de hospitalización. En ese momento, era sencillo definir categorías de personas de alto riesgo que, en promedio, se beneficiarían de las intervenciones de salud pública, frente a personas de bajo riesgo que superarían con éxito la infección sin problemas apreciables o a largo plazo. Por lo tanto, un esquema obsesivo de gestión de pandemias de talla única que no distinguía las categorías de riesgo fue irrazonable y opresivo desde el principio.

En consecuencia, las medidas promovidas por plausibilidad para reducir la transmisión de infecciones, aun cuando hayan sido efectivas para ese propósito, no han servido para un buen manejo de la pandemia. Sin embargo, estas medidas nunca estuvieron justificadas por evidencia científica en primer lugar. La regla de distanciamiento social de seis pies fue una invención arbitraria de los CDC (Dangor, 2021). Las afirmaciones de beneficio por el uso de máscaras faciales rara vez han distinguido el beneficio potencial para el usuario, para quien dicho uso sería una elección personal si acepta o no un mayor riesgo teórico, frente al beneficio para los transeúntes, el llamado "control de fuente", en el que el público las consideraciones de salud podrían aplicarse adecuadamente. Los estudios de control de fuentes basados ​​en máscaras para virus respiratorios, donde los estudios no tienen fallas fatales, no han mostrado un beneficio apreciable en la reducción de la transmisión de infecciones (Alexander, 2021; Alexander, 2022; Burns, 2022).

Los bloqueos de población general nunca se han utilizado en los países occidentales y no tienen evidencia de efecto para hacer otra cosa que posponer lo inevitable (Meunier, 2020), como lo dejan claro los datos de población de Australia (Worldometer, 2022). En la discusión definitiva de las medidas de salud pública para el control de la influenza pandémica (Inglesby et al., 2006), afirman los autores, “No hay observaciones históricas o estudios científicos que apoyen el confinamiento por cuarentena de grupos de personas posiblemente infectadas por períodos prolongados para frenar la propagación de la influenza. Un grupo de redacción de la Organización Mundial de la Salud (OMS), después de revisar la literatura y considerar la experiencia internacional contemporánea, concluyó que "el aislamiento forzado y la cuarentena son ineficaces y poco prácticos". … Las consecuencias negativas de la cuarentena a gran escala son tan extremas (confinamiento forzado de personas enfermas con el pozo; restricción total del movimiento de grandes poblaciones; dificultad para hacer llegar suministros críticos, medicamentos y alimentos a las personas dentro de la zona de cuarentena) que esta mitigación la medida debe ser eliminada de una consideración seria”.

Sobre las restricciones de viaje, Inglesby et al. (2006) señala: “Las restricciones de viaje, como el cierre de aeropuertos y el control de viajeros en las fronteras, históricamente han sido ineficaces. El grupo de redacción de la Organización Mundial de la Salud concluyó que 'la detección y la cuarentena de los viajeros que ingresan en las fronteras internacionales no retrasaron sustancialmente la introducción del virus en pandemias pasadas... y probablemente serán incluso menos efectivos en la era moderna'". Sobre el cierre de escuelas (Inglesby et al., 2006): “En epidemias de influenza anteriores, el impacto del cierre de escuelas en las tasas de enfermedad ha sido mixto. Un estudio de Israel informó una disminución en las infecciones respiratorias después de una huelga de maestros de 2 semanas, pero la disminución solo fue evidente durante un solo día. Por otro lado, cuando las escuelas cerraron por vacaciones de invierno durante la pandemia de 1918 en Chicago, 'se desarrollaron más casos de influenza entre los alumnos... que cuando las escuelas estaban en sesión'”.

Esta discusión deja en claro que estas acciones que supuestamente interfieren con la transmisión del virus sobre la base de argumentos de plausibilidad para su efectividad han sido equivocadas para manejar la pandemia y no han sido respaldadas por evidencia científica de efectividad para reducir la propagación. Su promoción a gran escala ha demostrado el fracaso de las políticas de salud pública en la era del Covid-19.

Plausibilidad vs mala ciencia

Se podría argumentar que varias políticas de salud pública, así como la información disponible para el público en general, no han sido respaldadas por la plausibilidad, sino por una ciencia mala o fatalmente defectuosa, que se hace pasar por ciencia real. Por ejemplo, en su revista interna, no revisada por pares, Informes semanales de morbilidad y mortalidad, los CDC han publicado varios análisis de la eficacia de las vacunas. Estos informes describieron estudios transversales, pero los analizaron como si fueran estudios de casos y controles, utilizando sistemáticamente parámetros de razón de probabilidades estimados en lugar de riesgos relativos para calcular la efectividad de la vacuna. Cuando los resultados del estudio son infrecuentes, digamos menos del 10 % de los sujetos del estudio, las razones de probabilidades pueden aproximarse a los riesgos relativos, pero de lo contrario, las razones de probabilidades tienden a sobreestimarse. Sin embargo, en los estudios transversales, los riesgos relativos se pueden calcular directamente y se pueden ajustar por posibles factores de confusión mediante una regresión de riesgo relativo (Wacholder, 1986), similar al uso de la regresión logística en los estudios de casos y controles.

Un ejemplo representativo es un estudio de la efectividad de las vacunas Covid-19 de tercera dosis (Tenforde et al., 2022). En este estudio, "... la red IVY inscribió a 4,094 adultos de ≥18 años", y después de las exclusiones de sujetos relevantes, "se incluyeron 2,952 pacientes hospitalizados (1,385 casos-pacientes y 1,567 controles sin COVID-19)". Los estudios transversales, por diseño, identifican números totales de sujetos, mientras que los números de casos y controles, y expuestos y no expuestos, suceden fuera de la intervención del investigador, es decir, por cualquier proceso natural que subyace a los mecanismos médicos, biológicos y epidemiológicos que se examinan. Seleccionando un número total de sujetos, Tenforde et al. El estudio es por definición un diseño transversal. Este estudio informó una efectividad de la vacuna del 82% entre pacientes sin condiciones inmunocomprometidas. Esta estimación refleja una razón de probabilidad ajustada de 1 – 0.82 = 0.18. Sin embargo, la fracción de casos de pacientes entre los vacunados fue del 31 % y entre los no vacunados del 70 %, ninguno de los cuales es lo suficientemente infrecuente como para permitir el uso de la aproximación de la razón de probabilidades para calcular la efectividad de la vacuna. Según los números del informe del estudio, Tabla 3, calculo un riesgo relativo no ajustado de 0.45 y un riesgo relativo aproximadamente ajustado de 0.43, lo que da una efectividad real de la vacuna de 1 – 0.43 = 57 %, que es sustancialmente diferente y mucho peor que el 82 %. presentado en el papel.

En un contexto diferente, después de que publiqué un artículo de revisión resumido sobre el uso de hidroxicloroquina (HCQ) para el tratamiento ambulatorio temprano de Covid-19 (Risch, 2020), se publicaron varios artículos de ensayos clínicos en un intento de demostrar que HCQ es ineficaz . La primera de estas llamadas "refutaciones" se llevó a cabo en pacientes hospitalizados, cuya enfermedad es casi completamente diferente en fisiopatología y tratamiento que la enfermedad ambulatoria temprana (Park et al., 2020). Los resultados importantes que había abordado en mi revisión, los riesgos de hospitalización y mortalidad, se distrajeron en estos trabajos al centrarse en resultados subjetivos y menores, como la duración de la positividad de la prueba viral o la duración de la estadía en el hospital.

Posteriormente, comenzaron a publicarse ECA de uso ambulatorio de HCQ. Una típica es la de Caleb Skipper et al. (2020). El criterio principal de valoración de este ensayo fue un cambio en la gravedad general de los síntomas autoinformados durante 14 días. Este punto final subjetivo fue de poca importancia para la pandemia, especialmente dado que los sujetos en los estudios de este grupo de investigación fueron moderadamente capaces de decir si estaban en los brazos del ensayo con HCQ o con placebo (Rajasingham et al., 2021) y, por lo tanto, la autoevaluación. los resultados informados no fueron del todo cegados a los brazos de medicación. A partir de sus análisis estadísticos, los autores concluyeron apropiadamente que "la hidroxicloroquina no redujo sustancialmente la gravedad de los síntomas en pacientes ambulatorios con COVID-19 temprano y leve". Sin embargo, los medios generales informaron que este estudio mostraba que "la hidroxicloroquina no funciona". Por ejemplo, Jen Christensen (2020) en CNN Health declaró sobre este estudio: “El medicamento antipalúdico hidroxicloroquina no benefició a los pacientes no hospitalizados con síntomas leves de covid-19 que recibieron tratamiento temprano en su infección, según un estudio publicado el jueves en la revista médica Annals of Internal Medicine." 

Pero, de hecho, el estudio de Skipper informó sobre los dos resultados de importancia, los riesgos de hospitalización y mortalidad: con placebo, 10 hospitalizaciones y 1 muerte; con HCQ, 4 hospitalizaciones y 1 fallecimiento. Estos números muestran una reducción del 60 % en el riesgo de hospitalización que, aunque no es estadísticamente significativo (p=0.11), es totalmente consistente con todos los demás estudios de riesgo de hospitalización por el uso de HCQ en pacientes ambulatorios (Risch, 2021). Sin embargo, este pequeño número de eventos de resultado no es suficiente para que la aleatorización haya equilibrado los factores, y el estudio es esencialmente inútil sobre esta base. Pero todavía se malinterpretó en la literatura profana como que muestra que HCQ no proporciona ningún beneficio en el uso ambulatorio.

Conclusiones

Muchos otros casos de charlatanería científica plausible o mala ciencia han ocurrido durante la pandemia de Covid-19. Como se vio con los artículos retractados de Surgisphere, las revistas médicas publican de manera rutinaria y acrítica estas tonterías siempre que las conclusiones se alineen con las políticas gubernamentales. Este cuerpo de conocimiento falso ha sido promulgado al más alto nivel por el NSC, FDA, CDC, NIH, OMS, Wellcome Trust, AMA, juntas de especialidades médicas, agencias de salud pública estatales y locales, compañías farmacéuticas multinacionales y otras organizaciones en todo el mundo. que han violado sus responsabilidades con el público o han elegido deliberadamente no entender la ciencia falsa. 

El Senado de los EE. UU. votó recientemente, por tercera vez, para poner fin al estado de emergencia de Covid-19, pero el presidente Biden declaró que vetaría la medida por “miedo” a que se repita. números de caso. Mis colegas y yo sostuvimos hace casi un año que la emergencia pandémica había terminado (Risch et al., 2022), pero la confianza falsa en el recuento de casos para justificar la supresión de los derechos humanos bajo la tapadera de “emergencia” continúa sin cesar.

La censura masiva por parte de los medios tradicionales y gran parte de las redes sociales ha bloqueado la mayor parte del debate público sobre esta ciencia mala y falsa. La censura es la herramienta de lo indefendible, ya que la ciencia válida se defiende inherentemente a sí misma. Hasta que el público comience a comprender la diferencia entre la plausibilidad y la ciencia y cuán grande ha sido el esfuerzo para producir en masa un "producto" científico que parece ciencia pero no lo es, el proceso continuará y los líderes que buscan el poder autoritario seguirán confiando en él. por falsa justificación.

Referencias

Alexander, PE (2021, 20 de diciembre). Más de 150 estudios y artículos comparativos sobre la ineficacia y los daños de las mascarillas. Instituto Brownstone. https://brownstone.org/articles/more-than-150-comparative-studies-and-articles-on-mask-ineffectiveness-and-harms/

Alexander, PE (2022 de junio de 3). Los CDC se niegan a publicar la solución a su estudio de mascarillas. Instituto Brownstone. https://brownstone.org/articles/cdc-refuses-to-post-the-fix-to-its-mask-study/

Anglemyer, A., Horvath, HT, Bero, L. (2014). Resultados de atención de la salud evaluados con diseños de estudios observacionales en comparación con los evaluados en ensayos aleatorios (Revisión). Base de datos Cochrane de revisiones sistemáticas, 4, artículo MR000034. https://doi.org/10.1002/14651858.MR000034.pub2

Bae, J.-M. (2016). Una sugerencia para la evaluación de la calidad en revisiones sistemáticas de estudios observacionales en epidemiología nutricional. Epidemiología y Salud, 38, artículo e2016014. https://doi.org/10.4178/epih.e2016014

Berger, MA (2011). La admisibilidad del testimonio pericial. En Consejo Nacional de Investigación, Comité para el Desarrollo de la Tercera Edición del Manual de Referencia sobre Evidencia Científica, Manual de referencia sobre evidencia científica, Tercera edición (págs. 11-36). Prensa de las Academias Nacionales. https://nap.nationalacademies.org/catalog/13163/reference-manual-on-scientific-evidence-third-edition

Burns, E. (2022, 10 de noviembre). Otro día, otro terrible estudio de máscaras. Miremos debajo del capó de la última pieza de ciencia de baja calidad sobre máscaras. Subpila. https://emilyburns.substack.com/p/another-day-another-terrible-mask

Centros de Servicios de Medicare y Medicaid. (2022, junio). Buscar pagos abiertos. Departamento de Salud y Servicios Humanos de EE. UU., Centros de Servicios de Medicare y Medicaid. https://openpaymentsdata.cms.gov/

Christensen, J. (2020, 16 de julio). La hidroxicloroquina tampoco ayuda a los pacientes con covid-19 que no están hospitalizados, según un nuevo estudio. CNN Salud. https://www.cnn.com/2020/07/16/health/hydroxychloroquine-doesnt-work-hospitalized-patients/

Collins, R., Bowman, L., Landray, M. y Peto, R. (2020). La magia de la aleatorización versus el mito de la evidencia del mundo real. New England Journal of Medicine, 382 (7), 674-678. https://www.nejm.org/doi/10.1056/NEJMsb1901642

Dangor, G. (2021, 19 de septiembre). La regla de distanciamiento social de seis pies de los CDC era 'arbitraria', dice el ex comisionado de la FDA. Forbes. https://www.forbes.com/sites/graisondangor/2021/09/19/cdcs-six-foot-social-distancing-rule-was-arbitrary-says-former-fda-commissioner/

Deaton, A. y Cartwright, N. (2018). Comprender y malinterpretar los ensayos controlados aleatorios. Social Science & Medicine, 210, 2 21-. https://doi.org/10.1016/j.socscimed.2017.12.005

Feynman, RP (1974). Ciencia de culto de carga. Ingenieria y ciencia, 37 (7), 10-13. https://resolver.caltech.edu/CaltechES:37.7.CargoCult

Goldberger, J., Waring, CH y Willets, DG (1915). La prevención de la pelagra: Una prueba de dieta entre internos institucionales. Informes de salud pública, 30 (43), 3117-3131. https://www.jstor.org/stable/4572932

Hartling, L., Milne, A., Hamm, MP, Vandermeer, B., Ansari, M., Tsertsvadze, A., Dryden, DM (2013). La prueba de la Escala Newcastle Ottawa mostró baja confiabilidad entre los revisores individuales. —Revista de Epidemiología Clínica, 66, 982 993-. https://doi.org/10.1016/j.jclinepi.2013.03.003

Colina, AB (1965). El medio ambiente y la enfermedad: asociación o causalidad. Actas de la Royal Society of Medicine, 58 (5), 295-300. https://doi.org/10.1177/003591576505800503

Inglesby, TV, Nuzzo, JB, O'Toole, T., Henderson, DA (2006). Medidas de mitigación de enfermedades en el control de la influenza pandémica. Bioseguridad y bioterrorismo: estrategia, práctica y ciencia de biodefensa, 4 (4): 366-375. https://doi.org/10.1089/bsp.2006.4.366

Meunier, T. (2020, 1 de mayo). Las políticas de bloqueo total en los países de Europa Occidental no tienen impactos evidentes en la epidemia de COVID-19. medRxiv. https://doi.org/10.1101/2020.04.24.20078717

MSNBC. (2021, 9 de junio). Fauci responde a los ataques de los republicanos [Video]. Youtube. https://www.youtube.com/watch?v=z-tfZr8Iv0s

Biblioteca Nacional de Medicina (2021, mayo). ClinicalTrials.gov. Historia, políticas y leyes. Departamento de Salud y Servicios Humanos de EE. UU., Institutos Nacionales de Salud, Biblioteca Nacional de Medicina. https://clinicaltrials.gov/ct2/about-site/history

Park, JJH, Decloedt, EH, Rayner, CR, Cotton, M., Mills, EJ (2020). Ensayos clínicos de etapas de la enfermedad en COVID 19: complicados y a menudo malinterpretados. Lancet Salud Global, 8 (10), e1249-e1250. https://doi.org/10.1016/S2214-109X(20)30365-X

Polack, FP, Thomas, SJ, Kitchin, N., Absalon, J., Gurtman, A., Lockhart, S., Perez, JL, Pérez Marc, G., Moreira, ED, Zerbini, C., Bailey, R ., Swanson, KA, Roychoudhury, S., Koury, K., Li, P., Kalina, WV, Cooper, D., Frenck, RW, Jr., Hammitt, LL, …, Gruber, WC (2020). Seguridad y eficacia de la vacuna Covid-162 de ARNm BNT2b19. New England Journal of Medicine, 383 (27), 2603-2615. https://www.nejm.org/doi/full/10.1056/nejmoa2034577

Rajasingham, R., Bangdiwala, AS, Nicol, MR, Skipper, CP, Pastick, KA, Axelrod, ML, Pullen, MF, Nascene, AA, Williams, DA, Engen, NW, Okafor, EC, Rini, BI, Mayer , IA, McDonald, EG, Lee, TC, Li P., MacKenzie, LJ, Balko, JM, Dunlop, SJ, …, Lofgren, SM (2021). Hidroxicloroquina como profilaxis previa a la exposición para la enfermedad por coronavirus 2019 (COVID-19) en trabajadores de la salud: un ensayo aleatorizado. Clinical Infectious Diseases, 72 (11), e835-e843. https://doi.org/10.1093/cid/ciaa1571

Risch, HA (2020). Tratamiento ambulatorio temprano de pacientes con COVID-19 sintomáticos y de alto riesgo que debe intensificarse de inmediato como clave para la crisis pandémica. American Journal of Epidemiology, 189 (11), 1218-1226. https://doi.org/10.1093/aje/kwaa093

Risch, HA (2021, 17 de junio). Hidroxicloroquina en el tratamiento temprano de pacientes ambulatorios con COVID-19 de alto riesgo: evidencia de eficacia y seguridad. EarlyCovidCare.org, https://earlycovidcare.org/wp-content/uploads/2021/09/Evidence-Brief-Risch-v6.pdf

Risch, H., Bhattacharya, J., Alexander, PE (2022 de enero de 23). La emergencia debe terminar, ahora. Instituto Brownstone. https://brownstone.org/articles/the-emergency-must-be-ended-now/

Sackett, DL, Rosenberg, WMC, Gray, JAM, Haynes, RB y Richardson, WS (1996). Medicina basada en la evidencia: qué es y qué no es. BMJ, 312, artículo 71. https://doi.org/10.1136/bmj.312.7023.71

Patrón, CP, Pastick, KA, Engen, NW, Bangdiwala, AS, Abassi, M., Lofgren, SM, Williams, DA, Okafor, EC, Pullen, MF, Nicol, MR, Nascene, AA, Hullsiek, KH, Cheng , MP, Luke, D., Lother, SA, MacKenzie, LJ, Drobot, G., Kelly, LE, Schwartz, IS, …, Boulware, DR (2020). Hidroxicloroquina en adultos no hospitalizados con COVID-19 temprano: un ensayo aleatorizado. Annals of Internal Medicine, 173 (8), 623-631. https://doi.org/10.7326/M20-4207

Tenforde, MW, Patel, MM, Gaglani, M., Ginde, AA, Douin, DJ, Talbot, HK, Casey, JD, Mohr, NM, Zepeski, A., McNeal, T., Ghamande, S., Gibbs, KW, Archivos, DC, Hager, DN, Shehu, A., Prekker, ME, Erickson, HL, Gong, MN, Mohamed, A., …, Self, WH (2022). Informe Semanal de Morbilidad y Mortalidad, 71(4), 118-124. https://www.cdc.gov/mmwr/volumes/71/wr/mm7104a2.htm

Tigas, M., Jones, RG, Ornstein, C. y Groeger, L. (2019 de octubre de 17). Dólares para Docs. Cómo llegaron los dólares de la industria a sus médicos. ProPublica. https://projects.propublica.org/docdollars/

Wacholder, S. (1986). Regresión binomial en GLIM: estimación de razones de riesgo y diferencias de riesgo. American Journal of Epidemiology, 123 (1), 174-184. https://doi.org/10.1093/oxfordjournals.aje.a114212

Whelan, R. (2020 de agosto de 3). 2020-08-03 - CNN COVID con entrevista Harvey Risch, epidemiólogo de Yale [Video]. Youtube. https://www.youtube.com/watch?v=gGO6Ke81bUQ

Worldómetro. (2022, 15 de noviembre). Total de casos de coronavirus en Australia. Worldómetro. https://www.worldometers.info/coronavirus/country/australia/



Publicado bajo un Licencia de Creative Commons Atribución Internacional
Para reimpresiones, vuelva a establecer el enlace canónico en el original Instituto Brownstone Artículo y Autor.

Autor

  • Harvey Risch

    Harvey Risch, académico principal del Instituto Brownstone, es médico y profesor emérito de epidemiología en la Escuela de Salud Pública de Yale y la Escuela de Medicina de Yale. Sus principales intereses de investigación son la etiología, la prevención y el diagnóstico precoz del cáncer, y los métodos epidemiológicos.

    Ver todos los artículos

Donaciones

Su respaldo financiero al Instituto Brownstone se destina a apoyar a escritores, abogados, científicos, economistas y otras personas valientes que han sido expulsadas y desplazadas profesionalmente durante la agitación de nuestros tiempos. Usted puede ayudar a sacar a la luz la verdad a través de su trabajo continuo.

Suscríbase a Brownstone para más noticias


Comprar piedra rojiza

Manténgase informado con Brownstone Institute