Trois ans plus tard, nous collectons et comprenons les erreurs du système médical, erreurs avant tout politiques, bien plus que scientifiques. Et si ChatGPT avait été interrogé en 2020 ?
L’ intelligence artificielle dans la santé a vraiment démarré dans les années 90 avec le projet Watson d’IBM, programme informatique capable de répondre à des questions formulées en langage ordinaire, grâce à ses capacités d’apprentissage, une mémoire et une rapidité de calcul hors du commun. Le but : faire le diagnostic et proposer un traitement. Elle excelle aujourd’hui en radiologie. On lui fournit des milliers d’images, et dans une gigantesque masse de millions de données, elle va comparer ces images avec la nouvelle, pour émettre des hypothèses diagnostiques et thérapeutiques pertinentes. La nouvelle image analysée va ensuite alimenter son auto-apprentissage et augmenter sa base de données. L’auto-apprentissage n’est qu’une incorporation de données venant étoffer la base de données, pouvant ensuite affiner les nouvelles recherches. Nous restons dans la mémoire.
Si nous avions interrogé ChatGPT au premier trimestre 2020, pour lui demander comment traiter l’épidémie de SARS-CoV-2, sa réponse aurait été une évidence. Il existait à l’époque quelques études en Chine sur l’hydroxychloroquine, ainsi que quelques études antérieures concernant une présomption d’efficacité sur les coronavirus. En 2005 des chercheurs américains avaient détecté un potentiel pour inhiber le coronavirus du SARS. En 2012 ce sont les chinois qui font les mêmes constatations avec le virus H5N1.
Pour l’ivermectine il y a nombre de publications sur ses différents modes d’actions et ses succès sur des virus à ARN en médecine vétérinaire. Fort de ces études, seules disponibles à l’époque, en analysant tout ce qui existe, il aurait naturellement répondu prudemment que l’on pouvait essayer de l’hydroxychloroquine, de l’ivermectine, de la vitamine D en attendant la mise au point de vaccins, qui prendrait plusieurs années.
Il ne pouvait à l’époque répondre autre chose, et l’évolution de l’épidémie aurait certainement été différente. En tous cas on aurait essayé de traiter, sur propositions, au lieu d’empêcher de traiter. Sur ce coup, l’IA aurait été plus intelligente que l’homme, ce qui n’est pas très reluisant, vu qu’elle n’est pas intelligente.
Mais attention ! Quand le vent tourne, l’IA peut changer d’avis, telle une girouette ! En effet, si on lui pose la même question en 2023, son analyse de tout ce qui a été dit et publié sur le sujet le conduit au consensus : ne pas traiter. Il sera trompé par l’accumulation des discours officiels, par nombre de publications trafiquées, par l’omerta sur nombre de faits, par les journalistes qui ont peur de sortir du discours officiel, etc. Par son mode de fonctionnement, si tout le monde a tort, l’IA aura tort, car elle suit le consensus, et on voit que l’homme peut manipuler l’IA, ce qui ne marcherait pas si elle était un tant soit peu intelligente !
Source: Gérard Maudrux, dans le blog Covid-factuel.fr