Als je in de keukenblender tomaten, aardbeien en
bananen stopt, moet je er niet verbaasd over zijn dat er geen sinaasappelresten
in het resulterende sap zitten. In de commotie over AI gaat het over wat AI
niet is, alsof ze het wel is: intelligent en voorspellend. Te beginnen met het
laatste, machineleer algoritmes kunnen bij gelijkblijvende condities met
betrekking tot de ingrediënten (data) helpen patronen (samenhangen) te vinden,
om deze vervolgens te extrapoleren op de (nabije) toekomst waarin de
samenstelling van de ingrediënten grotendeels ongewijzigd blijft. Dus niets
"voorspellen", maar gewoon een slim ontworpen omgekeerde
keukenblender voor data. Garbage in, garbage out, aardbeien erin, aardbeien
eruit. Voorspellen kan dan ook alleen als je precies weet wat je erin stopt en
als er gedurende de rit niets verandert. Helaas verandert onze wereld continu,
en vaak volkomen onvoorspelbaar. Juist hierom hebben we behoefte aan
algoritmes, en juist hierom kunnen deze ons totaal niet helpen.
Dan over naar het tweede punt: intelligentie. Data is
altijd een beperkte gemeten afspiegeling van een beperkt deel van de
werkelijkheid, dus altijd gebiased. Een algoritme kan slim bedacht zijn (de
meeste algoritmes zIjn in de jaren 50 van de vorige eeuw bedacht, maar nu pas
kunnen processoren de big data stromen aan). Echter, slim bedacht is niet
hetzelfde als intelligent. Artificiële intelligentie bestaat nog
niet (sorry baas, ik weet dat ik mijn baan in deze sector te danken heb aan het
idee dat dit wel zo is, we werken er dan ook hard aan om een echt intelligente
device te ontwerpen/bouwen, maar of het ooit gaat lukken, is vooralsnog de
vraag...).
Dit betekent helaas dat voor het niet intelligente
gebruik van algoritmes in bijvoorbeeld het onderwijs, menselijke intelligentie
(of beter het gebrek daaraan) volledig verantwoordelijk gehouden moet worden.
Onze algoritmes kunnen niet voorspellen of een kind wel of niet succesvol de
school zal afronden, laat staan of het gelukkig wordt, zal trouwen, etc. Wat we
ook meten, we blijven onwetend met betrekking tot de betekenis en zin van het
leven dat een mens gedurende het leven zal realiseren. Op grond van testen (hoe
goed ze ook zijn), of een heleboel verzamelde data (desnoods inclusief
biomarkers met betrekking tot reactie op moeilijke taken, voeding, of gsm data
met betrekking tot bewegen, of sociale media data met betrekking tot
groepsgedrag of vermeende persoonlijkheid) blijft het onmogelijk om te
voorspellen welk kind bij welke methode van onderwijs, of klassikale of
individuele aanpak baat heeft.
De moeilijkheid die hier nog eens boven op komt, is
dat in het echte leven het vaak voordát een bepaalde tactiek gaat werken, eerst
een beetje (en soms zelfs veel) slechter gaat. Een student moet bijvoorbeeld
leren om lange hoorcolleges te volgen, de essentie eruit te pakken zonder
afgeleid te raken. In het latere leven zijn er veel lange vermoeiende taken en
opdrachten. Een constatering dat een adolescent ongeveer 3 minuten de aandacht
kan focussen en we dus over moeten gaan op digitale flitscolleges, helpen
niemand opgewassen te zijn tegen een leven dat lang niet altijd meeslepend zal
zijn. Het onderwijs op grond van dit soort "inzichten" veranderen, is
niet intelligent. Daar dan AI de schuld van geven (of minstens digitale
technieken) is ronduit dom! Het niet begrijpen van je eigen gedrag (omgang met
techniek) is de oorzaak. De discussie in de media over dat algoritmes
discrimineren, vind ik al even dom! Het bij datasorteermachines niet anders dan
bij andere sorteermachines, het gaat om onderscheiden vinden in de input die
aan de machine wordt gevoerd. Als er geen sinaasappel wordt ingestopt, zal er
nooit een sinaasappel uitkomen.
Geen opmerkingen:
Een reactie posten