Aquest article tracta de la interpretació de les dades. El títol és un exemple que posa Daniel Levitin en el seu suggeridor llibre Weaponized Lies: How to Think Critically in the Post-Truth Era (Penguin Random House, Nova York, 2017), sobre els errors que es poden cometre i les mentides que es poden dir segons com s’exposin les dades numèriques. Òbviament, el títol de l’article és exacte. Si la proporció d’homes i dones és del 50% aproximadament, certament els humans, de mitjana, tenim un testicle (i un ovari).
És ben coneguda la confusió que es pot generar si interpretem inadequadament el risc relatiu. Com es veu a continuació, el tractament B té el doble d’efectes adversos que l’A. Si no ensenyem el gràfic, sembla clar que tothom triarà el tractament A. Però si mirem la imatge veurem que pràcticament no hi ha diferències. Parlàvem de risc relatiu.
És ben coneguda la confusió que es pot generar si interpretem inadequadament el risc relatiu. Com es veu a continuació, el tractament B té el doble d’efectes adversos que l’A. Si no ensenyem el gràfic, sembla clar que tothom triarà el tractament A. Però si mirem la imatge veurem que pràcticament no hi ha diferències. Parlàvem de risc relatiu.
Però quan parlem de dades no només hi ha un problema d’interpretació. Ara, amb l’acumulació ingent de dades de què disposem, fem un salt més: l’anàlisi de dades no només és interpretació (parlar de clústers és una manera d’interpretar dades), sinó que, per mitjà d’algoritmes, pot portar a la prescripció d’una manera automàtica i personalitzada.
Acabo de llegir el llibre de Krisa Taylor The Patient Revolution. How Big Data and Analytics Are Transforming the Health Care Experience (John Wiley & Sons, Hoboken, New Jersey, 2016). L’autora afirma que el gran repte que tenim actualment és el gran volum de dades de què podem disposar. Ja no només parlem de les dades de la història clínica. Ara podem integrar amb molta facilitat les dades dels wearables (que les recullen passivament sense cap intervenció directa dels pacients) i les dades de les app, que poden ser passives (geolocalització, per exemple) o actives (el pacient respon preguntes). Finalment, també hi ha les dades que generen automàticament els aparells. No cal tenir gaire imaginació per pensar altres dades disponibles que es poden integrar (amb bones intencions) per millorar l’atenció. Sense anar més lluny, el consum elèctric pot donar molta informació que hipotèticament pot tenir usos clínics (faig una hipòtesi: saber quants cops es lleva a la nit una persona gran que viu sola pot alertar sobre el risc de caigudes). O bé tots els contactes que ha tingut un pacient amb dispositius assistencials (sanitaris, farmàcia comunitària, centres de rehabilitació...).
Taylor exposa els hipotètics beneficis de la integració de totes aquestes dades al núvol. És el que ella anomena Personal Health Cloud (PHC). El PHC, contràriament a la majoria d'eines actuals, guia el nostre comportament, en comptes de seguir-lo.
L’anàlisi automàtica de les dades personals (Personal Health Analitics) a través d’algoritmes (Deep Learning Algorithms) pot generar recomanacions o alarmes abans que es produeixi un esdeveniment potencialment perillós. En el cas de les malalties cròniques tota aquesta informació pot generar algoritmes que siguin una bona eina per canviar els estils de vida (dieta, activitat física, son saludable, adherència al tractament, etc.). B. J. Fogg fa més de vint anys ja parlava del concepte de persuasió a través de la tecnologia, i el 2015 el MIT Technology review va publicar un monogràfic amb el títol “Persuasive Technology”.
Som a les beceroles i, per tant, en sabem molt poc de tot això. No s’ha de ser especialment lúcid per preveure que la gestió de tota aquesta informació planteja problemes ètics. Alguns dels problemes es relacionen amb el fet que les dades s’ubiquen en múltiples llocs (de vegades en llocs desconeguts per a l’usuari): no són el mateix algoritmes que optimitzen tasques que algoritmes que prenen decisions. O és important saber fins a quin punt els algoritmes prenen decisions sense control humà (transparència de l’algoritme). Els algoritmes poden ser bons per predir resultats, però les prediccions no són causes. I moltes coses més.
Davant d’aquest món nou podem prendre dues posicions. Una és el principi de precaució: com que no en sabem els resultats (actuals i futurs), cal evitar l’acció en aquest camp fins que no en tinguem més coneixement. Sembla una actitud prudent. Però planteja dos problemes: primer, les dades ja són al núvol, ens envolten i ens afecten, i segon, és ètic no fer servir dades disponibles que poden generar beneficis immediats a la ciutadania?
Una altra posició pot ser una mena de principi d’exploració. L’explorador seriós es planteja reptes (difícils) però no és un suïcida. L’explorador és tenaç i prova d’aconseguir els seus objectius a través de vies diferents, fins que se’n surt.
En tot cas, allò que no s’hi val és fer com si no passés res.
Com a cada article, proposo una peça musical. He triat la Xacona de J. S. Bach (Partita per a violí sol número 2 en re menor, BWV 1004). És un petit homenatge a Jorge Wagensberg (1948-2018). En Jorge deia que el que primer havien d’aprendre els infants era el llenguatge: oral i escrit (en tres idiomes), el llenguatge matemàtic i el llenguatge musical (potser també va dir el llenguatge artístic, però no n’estic segur). Bach és la representació més brillant del llenguatge musical. Gràcies, Jorge, per fer-nos entendre la importància del llenguatge, que les preguntes sempre són més importants que les respostes, i que sempre és més útil dubtar que tenir fe.
Cap comentari:
Publica un comentari a l'entrada