Quan es treballa amb intel·ligència artificial, és important tenir en compte diversos aspectes ètics per assegurar que aquesta tecnologia es desenvolupi i s'utilitzi de manera responsable i sostenible. A continuació es presenten alguns dels aspectes ètics més rellevants a tenir en compte:
És important considerar si és ètic utilitzar intel·ligència artificial per resoldre un problema concret. En molts casos, l'ús d'intel·ligència artificial pot portar beneficis significatius i solucionar problemes complexos que serien difícils de resoldre amb altres mètodes. No obstant això, també és important considerar els possibles efectes negatius que poden derivar de l'ús d'aquesta tecnologia.
Per exemple, l'ús d'intel·ligència artificial per automatitzar processos de contractació o selecció de personal pot portar a discriminació inconscient o explícita contra certes persones o grups socials. Així mateix, l'ús d'intel·ligència artificial en la vigilància i el control social pot posar en risc la privacitat i les llibertats individuals.
L'ús de dades personals per entrenar models d'intel·ligència artificial pot posar en risc la privacitat de les persones. És important assegurar-se que les dades es recopilen de manera legal i que s'utilitzen només per a fins legítims.
A l'hora de recopilar les dades per un projecte d'aprenentatge automàtic cal pensar en preguntes com ara:
D'on s'obtindran les dades?
Quins mètodes de recollida de dades s'han d'utilitzar?
És necessari el consentiment?
Qui emmagatzemarà i controlarà les dades?
És important assegurar que l'ús d'intel·ligència artificial no afavoreixi ni discrimini cap grup social. Això implica garantir que els algorismes i models siguin entrenats amb dades diverses i representatives.
Les dades utilitzades per entrenar el sistema reflecteixen els prejudicis i estereotips que hi ha a la societat introduint així aquests mateixos biaixos del món real en el pròpi aprenentatge automàtic. Per exemple, utilitzar dades sobre professionals mèdics que incloguin només infermeres i metges homes perpetuaria així un estereotip de gènere real sobre els treballadors sanitaris al sistema informàtic.
Busca al google imatges Computers for boys i en una altre pestanya, busca Computers for girls. Quines diferències hi trobes? per què creus que es produeixen?
És important que els algorismes i models d'intel·ligència artificial siguin transparents i expliquin clarament com es prenen les decisions. Això ajuda a garantir que els resultats obtinguts siguin justos i que no hi hagi discriminació. Qui és el responsable quan el model pren decisions equivocades? Com podem millorar el model si no podem explicar com ha pres la decisió?
En aquest aspecte les xarxes neuronals no són un bon algorisme, ja que la seva complexitat fan que sigui molt difícil de seguir per a les persones, per la qual cosa la interpretació i la transparència dels models generats per aquest tipus d'algoritmes poden ser complicades, actuen com a caixes negres. Això és especialment important en aplicacions crítiques, on la transparència dels models és clau per a la presa de decisions. Pot un metge validar una decisió presa per un model d'IA sobre un pacient si no és capaç d'explicar el perquè d'aquesta decisió?
Alguns exemples d'algoritmes de "Machine Learning" interpretables són:
Arbres de decisió: aquest algorisme genera models en forma de "arbre", on cada node representa una decisió basada en una variable específica. Això fa que els models siguin fàcils de comprendre i visualitzar, ja que es poden seguir les rutes a través de l'arbre per entendre com es prenen les decisions.
Regressió lineal: aquest algorisme s'utilitza per predir una variable numèrica a partir d'un conjunt de variables d'entrada. Els models generats per aquest algorisme són fàcils de comprendre, ja que estan basats en equacions matemàtiques simples.
Veurem aquests algoritmes en els pròxims apartats.
L'entrenament i la utilització de models d'intel·ligència artificial (IA) tenen un impacte ambiental significatiu, que es pot desglossar en diferents categories.
En primer lloc, la formació de models d'IA implica l'ús de grans quantitats de dades i de recursos computacionals, que consumeixen energia i emeten emissions de gasos d'efecte hivernacle. Els models d'IA més grans i complexos requereixen més dades i més temps de computació, la qual cosa implica un major consum d'energia.
A més, l'ús de les xarxes neuronals, que són la base de molts models d'IA, requereixen l'ús de processadors gràfics (GPU) per a accelerar el càlcul, els quals consumeixen més energia que els processadors convencionals.
En segon lloc, l'ús de models d'IA també pot contribuir a l'augment de la demanda energètica en altres àmbits. Per exemple, els vehicles autònoms i els dispositius IoT que utilitzen IA necessiten connexions a internet de banda ampla i constant, el que implica més energia per mantenir la infraestructura de la xarxa.
Finalment, la gestió dels residus electrònics i l'eliminació dels equips obsolets també tenen un impacte ambiental significatiu. La disposició inadequada dels components electrònics pot conduir a la contaminació de l'aire i l'aigua, així com a la producció de metalls pesants tòxics.