Word Kunsmatige Intelligensie (KI) stelsels op onetiese maniere aangewend in Suid-Afrika (en die res van die wêreld)? DEEL II

Geskryf deur Riana Crafford, dosent in Bedryfsinligtingstelsels aan Akademia.

In die vorige artikel het ons gepraat oor etiese aspekte rakende die gebruik van KI-stelsels. Ons het geëindig met die vraag: “Hoeveel vertroue kan ons plaas in KI-stelsels?”

So, hoeveel vertroue plaas jý in die toepassings op jou slimtoestelle, waar ten minste ʼn mate van intelligensie ingebou is? Hier praat ons nou van enigiets van jou motor se navigasiestelsel tot jou woordverwerker se speltoetser. Hoeveel keer het jy sonder om dit te bevraagteken sulke kunsmatige intelligensiebesluite sonder meer aanvaar? Jy weet nie eers watter kriteria gebruik word om sulke besluite te neem nie! Hier is maar één voorbeeld: Google Maps of Waze bereken roetes met afstand of tyd as maatstaf. ʼn Belangrike vraag is dalk of hierdie toepassings die nuanses van die Suid-Afrikaanse samelewing verstaan. Nie alle plekke is ewe veilig om te ry nie. Jy is dalk bereid om ʼn sekere roete net in daglig aan te pak. Ander paaie is vrot van die slaggate…

Ek probeer jou nie bangpraat nie. Dit is aanvaarbaar dat jy hierdie toestelle vertrou. Dis egter ook nodig dat jy gedurig herevalueer. Hoe seker is jy dat die stelsels akkurate inligting verskaf. Hoe kan mens voorspel wanneer hulle gaan faal? Watter terugvalplanne het jy wanneer hulle wel misluk?

So wat ek eintlik wil sê: Dink krities en moenie alle besluitneming sonder meer aan kunsmatige intelligensie oorlaat nie. Navorsing dui daarop dat die mensdom al te geneig is om geoutomatiseerde stelsels blindelings te volg. Dis nou alles goed en wel, maar hoe meer besluite deur kunsmatige intelligensie gedryf word, hoe belangriker word dit dat mense hulle koppe moet gebruik en niks slaafs moet navolg nie.

Ons oorspronklike nagmerrie bly ʼn werklikheid – dit is moontlik dat kwaadwilliges kunsmatige intelligensie sal inspan om hulle bose planne uit te voer. Elkeen moet steeds sy eie goeie oordeel gebruik. Diskresie kan nie noodwendig aan slimtoestelle oorgelaat word nie.

Om krities na KI-stelsels te kyk sluit natuurlik ook in dat gebruikers self moet seker maak dat daar nie partydigheid in hierdie stelsels ingebou is nie. Oorweeg die volgende voorbeeld.

Kundiges het die afgelope jaar allerhande modelle gebruik om vooruitskattings van die Covid-19-pandemie te doen. Hierdie vooruitskattings het op hulle beurt weer die Nasionale Beheerraad se besluite rondom hierdie virus beïnvloed. Ons het almal maar ons bedenkinge oor hoe die pandemie in Suid-Afrika hom afgespeel het. As ek dit nie mis het nie, het ons aansteek- en herstelpatrone nie eintlik die Europese tendense gevolg nie. Dus was daar partydigheid in die data vanaf die buiteland. Europa se bevolking is ouer as ons sʼn en ons seisoene stem nie ooreen nie. Die grootste deel van ons bevolking was nie regtig by magte om doeltreffend te isoleer nie. Ons vakbonde het ʼn groter sê gehad in die besonderhede van die inperking. En vele meer… Om ʼn sinvolle resultaat te kon kry, moes ons dus eintlik ander inligting in ons modelle invoer. Het ons? Dit is waar die kritiese beoordeling nou inkom.

Die nagevolge daarvan as die partydigheid nie aangespreek word nie, is altyd ernstig, maar in Suid-Afrika dalk nog meer so. Dit vra nie veel vir die EFF om ‘rassisme’ of kolonialisme’ te skree nie. My hart bloei nou nog oor die Clicks-voorval. Partydigheid in die data is gewoonlik die gevolg van onbedoelde partydigheid weens ʼn gebrek aan verteenwoordiging. As die skeppers van die TRESemmé-advertensie toegesien het dat die verskillende soorte probleemhare beter verteenwoordiging uit al die rassegroepe geniet, sou die EFF nie ʼn voet gehad het om op te staan nie.

Suid-Afrikaners maak staat daarop dat ondernemings toesien dat daar geen onder- (of oor-) verteenwoordiging sal wees in die data wat hulle gebruik vir hulle KI-stelsels nie. Met ʼn diverse bevolking soos ons Reënboognasie, is dit een van die bydraende faktore tot die sukses van KI-stelsels in Suid-Afrika.

Die kruks van die saak is dat ondernemings pertinent moet aandring op onpartydigheid en nie met aannames tevrede kan wees nie. Daar kan nie goedsmoeds aanvaar word dat onpartydigheid outomaties ingebou is nie. Ons kan dus nie internasionale toepassings en programmatuur onveranderd implementeer in ʼn Suid-Afrikaanse konteks nie.

Alles wat ons in hierdie (en die vorige) artikel bespreek het, dui daarop dat dit wel moontlik is om KI-stelsels te meet aan etiese standaarde. Boonop is dit ongelukkig so dat hierdie stelsels moontlik nie voldoen aan etiese vereistes nie. Ons slotsom is dus: Daar ís so iets soos ʼn onetiese aanwending van KI-stelsels.

Uit die voorbeelde is dit ook duidelik dat Suid-Afrikaners wel soms (onbedoeld of kwaadwillig) gekonfronteer word met onetiese implementering van KI-stelsels. Derhalwe rus daar ʼn verantwoordelikheid op die gebruikers om die impak op hulle lewens te evalueer en dienooreenkomstig besluite en aksie te neem. Hulle moet hul oordeelsvermoë gebruik en aandring op deursigtige en onpartydige KI-stelsels.

Onthou, die rekenaar/robot is vir die mens gemaak en nie die mens vir die rekenaar nie. Die vraag: “Is dit net tot voordeel van die mense wat dit gebruik?” vorm die basis van etiese oorwegings. Indien die antwoord nie ʼn oortuigde “Ja!” is nie, moet daar herbesin word.

Riana Crafford is ʼn dosent in Bedryfsinligtingstelsels aan Akademia.

Vorige

REGISTREER VIR ONS NUUSBRIEF EN BLY OP HOOGTE VAN AKADEMIA SE NUUS EN GEBEURE

REGISTREER VANDAG

REGISTREER VIR ONS NUUSBRIEF EN BLY OP HOOGTE VAN AKADEMIA SE NUUS EN GEBEURE

 

REGISTREER VANDAG