OBSH ka publikuar udhëzime për përdorimin etik të I.E. në kujdesin shëndetësor
Futja e teknologjive shëndetësore të bazuara në inteligjencën artificiale mund të jetë “e rrezikshme” për njerëzit në vendet me të ardhura më të ulëta, ka paralajmëruar Organizata Botërore e Shëndetësisë (OBSH) në një raport të ri. Është e rëndësishme që përdorimi i teknologjisë në zhvillim të mos formësohet vetëm nga kompanitë e teknologjisë dhe ato në vendet e pasura. Nëse modelet nuk trajnohen për të dhënat nga njerëzit në vende me burime të pamjaftueshme, algoritmet mund t’i shërbejnë keq asaj popullsie, thotë OBSH.
– Gjëja e fundit që duam të shohim si pjesë e këtij hapi përpara me teknologjinë është të zgjerojmë ose përforcojmë pabarazinë dhe paragjykimet në strukturën sociale të vendeve në mbarë botën – thotë Alain Labrick, drejtor i shëndetit dixhital dhe inovacionit në OBSH.
Mbrojtja e shëndetit publik
OBSH thotë se udhëzimet e saj, të nxjerra si këshilla për vendet anëtare, synojnë të promovojnë dhe mbrojnë shëndetin publik. Në një skenar të rastit më të keq, organizata paralajmëron një “garë deri në fund” globale ku kompanitë duan të jenë të parat që lëshojnë aplikacione, edhe nëse ato nuk funksionojnë dhe nuk janë të sigurta. Kjo nga ana tjetër rrit mundësinë e “kolapsit të modelit” dhe një cikël keqinformimi në të cilin modelet gjuhësore të trajnuara për informacione të pasakta ose të rreme shkatërrojnë burimet publike të informacionit, siç është Interneti.
Përfshirja e komunitetit akademik
Menaxhimi i këtyre mjeteve të fuqishme nuk duhet t’u lihet vetëm kompanive të teknologjisë, paralajmëron organizata. Qeveritë e të gjitha vendeve duhet të punojnë së bashku për të rregulluar në mënyrë efektive zhvillimin dhe përdorimin e teknologjive të inteligjencës artificiale. Dhe shoqëria civile dhe njerëzit që marrin kujdes shëndetësor duhet të kontribuojnë në të gjitha fazat e zhvillimit dhe zbatimit të teknologjisë, duke përfshirë mbikëqyrjen dhe rregullimin e tyre.
Verifikimi i pavarur
Udhëzimet nga organizatat shëndetësore rekomandojnë që palët e treta të pavarura të kryejnë auditime të detyrueshme të modeleve gjuhësore të përdorura. Auditime të tilla duhet të vlerësojnë se sa mirë mjeti mbron të dhënat dhe të drejtat e njeriut, shton OBSH, e cila po i shtyn zhvilluesit e teknologjisë që të kalojnë të njëjtin lloj trajnimi për etikën si profesionistët mjekësorë. Qeveritë, sugjerojnë ata, mund t’u kërkojnë zhvilluesve të regjistrojnë algoritme të hershme për të inkurajuar publikimin e rezultateve negative dhe për të parandaluar paragjykimet dhe reklamat.
/alsatm/