Catégorie : Sciences

  • Ne pas savoir

    Consom­mer du citron congelé permet de combattre le diabète et certaines tumeurs. Confron­tés à cette affir­ma­tion, plus de la moitié des 4 000 parti­ci­pants à une vaste étude menée par la Fonda­tion Descartes, ont répon­du… qu’ils ne savaient pas si elle était vraie ou fausse. […] Un résul­tat qui souligne le manque de recul d’une partie de la popu­la­tion face aux infor­ma­tions erro­nées en matière de santé. « Le jour où elles tombe­ront malades, ces personnes risque­ront d’être happées par ce genre de croyances », aver­tit Laurent Cordo­nier, socio­logue et direc­teur de la recherche de la Fonda­tion Descartes.

    La santé parti­cu­liè­re­ment touchée par la désin­for­ma­tion : l’alerte de la Fonda­tion Descartes

    J’ai un vrai problème avec cette vision de la science et de la recherche.

    Proba­ble­ment que j’au­rais raisonné par intui­tion et vrai­sem­blance, que j’au­rais répondu que l’in­for­ma­tion était fausse. Avec le recul, je me dis que c’est plutôt moi qui aurait été dans l’er­reur et plutôt ceux qui ont avoué ne pas savoir qui ont eu la bonne atti­tude.

    Je ne connais pas grand chose au citron et à l’ef­fet de la congé­la­tion. Je ne connais quasi­ment rien au cancer et je ne sais rien du tout des moyens de le combattre. Je n’ai lu pour m’orien­ter aucune infor­ma­tion scien­ti­fique ni aucune commu­ni­ca­tion d’une auto­rité sérieuse à propos des inter­ac­tions entre le cancer et le citron, qu’il soit congelé ou pas. Bref, je ne sais pas.

    Ceux qui risquent d’être happés par les mauvaises croyances sont ceux qui pensent savoir et affirment savoir alors que ce n’est pas le cas. Ils ont peut-être raison cette fois, et auront peut-être tort la prochaine fois. Parfois l’in­tui­tion ou la vrai­sem­blance de celui qui n’y connaît rien n’est pas la meilleure base pour assu­rer une croyance.

    Blâmer ceux qui avouent ne pas savoir, les consi­dé­rer comme perméables à la désin­for­ma­tion, c’est encou­ra­ger la croyance à la place du savoir. J’ai l’im­pres­sion que c’est la mauvaise voie.

    Mais bon, je ne sais pas 🤷

  • [Lecture] La crèche a, une fois de plus, donné de l’ho­méo­pa­thie à notre enfant de 18mois, sans nous préve­nir

     

  • This Millen­nial Might Be the New Einstein

    OK, it’s 2016, and gifted females are not exactly rare at MIT; nearly half the under­grads are women. But some­thing about Pasterski led Udden not just to help get her plane appro­ved, but to get the atten­tion of the univer­si­ty’s top profes­sors. Now, eight years later, the lanky, 22-year-old Pasterski is already an MIT graduate and Harvard Ph.D. candi­date who has the world of physics abuzz. She’s explo­ring some of the most chal­len­ging and complex issues in physics, much as Stephen Hawking and Albert Einstein (whose theory of rela­ti­vity just turned 100 years old) did early in their careers. Her research delves into black holes, the nature of gravity and space­time. A parti­cu­lar focus is trying to better unders­tand “quan­tum gravity,” which seeks to explain the pheno­me­non of gravity within the context of quan­tum mecha­nics. Disco­ve­ries in that area could drama­ti­cally change our unders­tan­ding of the workings of the universe.

    — Ozy

    Joli portrait, à lire.

  • Humans Are Slam­ming Into Driver­less Cars and Expo­sing a Key Flaw

    The self-driving car, that cutting-edge crea­tion that’s suppo­sed to lead to a world without acci­dents, is achie­ving the exact oppo­site right now: The vehicles have racked up a crash rate double that of those with human drivers.

    The glitch?

    They obey the law all the time, as in, without excep­tion. This may sound like the right way to program a robot to drive a car, but good luck trying to merge onto a chao­tic, jam-packed high­way with traf­fic flying along well above the speed limit. It tends not to work out well. As the acci­dents have piled up — all minor scrape-ups for now — the argu­ments among program­mers at places like Google Inc. and Carne­gie Mellon Univer­sity are heating up: Should they teach the cars how to commit infrac­tions from time to time to stay out of trouble?

    — Bloom­berg

    Les rela­tions presse avancent faci­le­ment le « zéro acci­dent respon­sable » des voitures auto­nomes, mais ça n’est qu’une partie des enjeux. Voilà l’autre, et c’est diable­ment inté­res­sant.

    On ne parle d’ailleurs pas que d’ac­ci­dent, mais simple­ment de bonne conduite. Comme pour les motos et l’in­ter­file, il y a la règle pure et dure, et ce que doit lais­ser faire l’in­tel­li­gence :

    Faut-il rester derrière un vélo à 25 km/h pendant 5 km faute de pouvoir le doubler avec 1m50 d’es­pace sans passer la ligne jaune et au risque non seule­ment un bouchon mais peut-être encore plus d’ac­ci­dent quand le conduc­teur suivant voudra doubler les deux d’un coup sans visi­bi­lité ? ou peut-on doubler avec un peu moins d’es­pace et en mordant la ligne médiane avec toutes les précau­tions utiles ?

    Bonne chance les robots…