Il primo articolo fa presente che la ricerca di terapie per il covid è andata spesso in ordine sparso, quindi con scarsa collaborazione tra enti di ricerca e duplicazioni, e a volte è stata affetta anche da problemi metodologici, ad esempio campioni troppo piccoli o mancanza di gruppi di controllo. La cosa va comunque posta nel giusto contesto, in un momento di emergenza una certa disorganizzazione è fisiologica (e comunque ci sono stati anche studi ben fatti e condivisi, tra cui qualcuno citato nello stesso articolo, o lo
studio internazionale lanciato dall'OMS, credo ancora in corso).
Il secondo articolo effettivamente è un po' più tecnico e riguarda solo questioni metodologiche in ambito molto ristretto. In sostanza si sostiene che per certi ambiti di ricerca (ad esempio, l'efficacia o meno delle mascherine) studi empirici randomizzati siano invece inadeguati, perché non è importante quantificare precisamente gli effetti di un certo fenomeno bensì avere una evidenza anche debole della presenza e direzione della correlazione (ad esempio). Andare oltre, specialmente quando la risposta è necessaria in tempi brevi, è inutile e a volte anche impossibile.
Il terzo articolo è epistemologia pura. E' fatto davvero molto bene, e tratta un tema fondamentale ma generalmente poco apprezzato. Il nodo centrale è sulla non verificabilità / falsificabilità dei modelli stocastici (probabilistici), che sono alla base di molte branche della scienza moderna (fisica, meteorologia, medicina, economia). Perfettamente applicabile anche ai vari modelli sulle proiezioni epidemiologiche del coronavirus (famoso quello dell'Imperial college di Londra), tutti necessariamente errati ("all models are wrong, but some are useful" come disse qualcuno). Gli altri due sono tranquillamente ignorabili, ma direi che questo merita il tempo che richiede.