Word kunsmatige intelligensie-stelsels (KI) op onetiese maniere aangewend? DEEL I

Geskryf deur Riana Crafford, dosent in Bedryfsinligtingstelsels aan Akademia.

Het jy al die nare gedagte gekry dat inligtingstelsels op die ou end gebruik gaan word om die mensdom te manipuleer en te terroriseer? Veral nou dat die moontlikheid al sterker word dat die al-slimmer-wordende tegnologie in kwaadwilliges se hande kan val …

As dit jou nie laat wakkerlê nie, is ek seker dat dit wel beleidmakers en reguleerders slapelose nagte gee! Hoe kan hulle (en ons) seker maak dat die etiese gebruik van kunsmatige intelligensiestelsels nagejaag word? Volgens Brian Marr, skrywer en toekomskundige, is daar enkele sake waaraan ondernemings aandag moet gee indien hulle etiese kunsmatige intelligensiestelsels wil bou.

Deursigtigheid is van kritiese belang: Alle belanghebbendes moet ten volle ingelig wees aangaande ʼn instansie se implementering van kunsmatige intelligensie. Onetiese instansies sal dalk wil wegkom met ʼn beleid van “wat die oog nie sien maak die hart nie seer nie”, maar ek het slegte nuus vir hulle. Op die ou end lek ongewilde feite altyd uit en dan is vertroue in die onderneming erg geknou.

Dis byvoorbeeld veel beter om vertroue te skep deur vooraf in baie duidelike en verstaanbare taal uiteen te sit hoekom data versamel word en hoe dit gebruik gaan word. Hoe laakbaar is dit nie dat instansies soms die praktyk volg om die ware toedrag van sake te verskuil in die fyn skryf (en dit nogal in woes obskure taal wat gʼn normale mens kan verstaan nie!)

Nog ʼn manier hoe vertroue gebou moet word, ook volgens Suid-Afrikaanse wetgewing, (al gehoor van POPI?) is om vóóraf toestemming te vra om kliënte se besonderhede te gebruik. Hoe voel jy oor voorvalle waar daar nie vooraf toestemming gevra is nie, maar agterna word daar om verskoning gevra (en dan ook maar net as hulle uitgevang is)? Sal jy so ʼn instansie maklik weer vertrou?

Jy sal met my saamstem dat ingeligte toestemming waardevol sal wees. Ek sal as verbruiker met die grootste graagte inligting met ʼn instansie deel as ek weet hoe dit gaan waarde toevoeg, nie net vir my nie, maar ook vir die groter samelewing. Watter beweegredes sou vir jou aanvaarbaar wees? Dat dit die onderneming help om beter produkte te lewer? Dat ʼn beter diens wat meer van pas is gelewer kan word? Dat verbruikers se probleme opgelos kan word? Dat werknemers se werksomstandighede kan verbeter?

Daar is nog ʼn onderwerp van belang by die skep van etiese KI-toepassings. In Suid-Afrika is dit spesifiek ter sprake. Ek verwys hier na die konsep van partydigheid. Jy moet onthou dat kunsmatige intelligensie beide die vermoë het om onpartydigheid in ʼn stelsel in te bou of om partydigheid in te bed. Alhoewel toestelle nie “bagasie” het (soos dié wat samelewings met hulle saamdra nie), is KI afhanklik van die data wat dit gevoer word. Dit wil sê, as daar inherente partydigheid ingebou is in die data, sal die daaropvolgende besluite die partydigheid voortsit.

Professor Jonathan Jansen slaan die spyker op die kop in die Vrye Weekblad waar hy reken die minister lei ons om die bos. Ek kan dit nie meer spitsvondig as hy sê nie:

“Om ʼn paar redes, wat politieke inmenging insluit, is dit onwaarskynlik dat die matriekuitslae die werklike akademiese uitkomste weerspieël.

“Die slaagpersentasie onder gevangenes wat die graad 12- of Nasionale Senior Sertifikaat-eksamen afgelê het, was 86,3%, maar net 76,2% vir leerders in skole. Jou kans om ʼn goeie slaagsyfer te behaal is dus beter in ʼn tronk as in ʼn skool. Ouers behoort dit in gedagte te hou wanneer hulle moet besluit waar om hul kinders in te skryf.

“Jy hoef nie ʼn graad in syfers te hê om te besef dat hierdie stellings op onsinnige logika neerkom nie. En tog, as jy groot hoeveelhede data tot jou beskikking het, kan jy soveel oënskynlik gesaghebbende aansprake maak as wat jy wil net om die publiek om die bos te lei…”

Ingeboude partydigheid is een van die redes waarom logikafoute gemaak kan word in ons data-ontledings (en politici daarmee wegkom). Volgende keer praat ons verder oor die onderwerp. Ons gaan spesifiek aandag gee aan die vraag: “Hoeveel vertroue kan ons plaas in KI-stelsels? Hopelik sal ons dan die volgende vrae kan beantwoord: “Kan KI-stelsels op onetiese maniere aangewend word? Indien wel, wat is die toedrag van sake in Suid-Afrika?”

Riana Crafford is ʼn dosent in Bedryfsinligtingstelsels aan Akademia.

Vorige
Volgende

REGISTREER VIR ONS NUUSBRIEF EN BLY OP HOOGTE VAN AKADEMIA SE NUUS EN GEBEURE

REGISTREER VANDAG

REGISTREER VIR ONS NUUSBRIEF EN BLY OP HOOGTE VAN AKADEMIA SE NUUS EN GEBEURE

 

REGISTREER VANDAG