donderdag 6 juni 2019

Sorteermachine

Als je in de keukenblender tomaten, aardbeien en bananen stopt, moet je er niet verbaasd over zijn dat er geen sinaasappelresten in het resulterende sap zitten. In de commotie over AI gaat het over wat AI niet is, alsof ze het wel is: intelligent en voorspellend. Te beginnen met het laatste, machineleer algoritmes kunnen bij gelijkblijvende condities met betrekking tot de ingrediënten (data) helpen patronen (samenhangen) te vinden, om deze vervolgens te extrapoleren op de (nabije) toekomst waarin de samenstelling van de ingrediënten grotendeels ongewijzigd blijft. Dus niets "voorspellen", maar gewoon een slim ontworpen omgekeerde keukenblender voor data. Garbage in, garbage out, aardbeien erin, aardbeien eruit. Voorspellen kan dan ook alleen als je precies weet wat je erin stopt en als er gedurende de rit niets verandert. Helaas verandert onze wereld continu, en vaak volkomen onvoorspelbaar. Juist hierom hebben we behoefte aan algoritmes, en juist hierom kunnen deze ons totaal niet helpen.

Dan over naar het tweede punt: intelligentie. Data is altijd een beperkte gemeten afspiegeling van een beperkt deel van de werkelijkheid, dus altijd gebiased. Een algoritme kan slim bedacht zijn (de meeste algoritmes zIjn in de jaren 50 van de vorige eeuw bedacht, maar nu pas kunnen processoren de big data stromen aan). Echter, slim bedacht is niet hetzelfde als intelligent. Artificiële intelligentie bestaat nog niet (sorry baas, ik weet dat ik mijn baan in deze sector te danken heb aan het idee dat dit wel zo is, we werken er dan ook hard aan om een echt intelligente device te ontwerpen/bouwen, maar of het ooit gaat lukken, is vooralsnog de vraag...).

Dit betekent helaas dat voor het niet intelligente gebruik van algoritmes in bijvoorbeeld het onderwijs, menselijke intelligentie (of beter het gebrek daaraan) volledig verantwoordelijk gehouden moet worden. Onze algoritmes kunnen niet voorspellen of een kind wel of niet succesvol de school zal afronden, laat staan of het gelukkig wordt, zal trouwen, etc. Wat we ook meten, we blijven onwetend met betrekking tot de betekenis en zin van het leven dat een mens gedurende het leven zal realiseren. Op grond van testen (hoe goed ze ook zijn), of een heleboel verzamelde data (desnoods inclusief biomarkers met betrekking tot reactie op moeilijke taken, voeding, of gsm data met betrekking tot bewegen, of sociale media data met betrekking tot groepsgedrag of vermeende persoonlijkheid) blijft het onmogelijk om te voorspellen welk kind bij welke methode van onderwijs, of klassikale of individuele aanpak baat heeft.

De moeilijkheid die hier nog eens boven op komt, is dat in het echte leven het vaak voordát een bepaalde tactiek gaat werken, eerst een beetje (en soms zelfs veel) slechter gaat. Een student moet bijvoorbeeld leren om lange hoorcolleges te volgen, de essentie eruit te pakken zonder afgeleid te raken. In het latere leven zijn er veel lange vermoeiende taken en opdrachten. Een constatering dat een adolescent ongeveer 3 minuten de aandacht kan focussen en we dus over moeten gaan op digitale flitscolleges, helpen niemand opgewassen te zijn tegen een leven dat lang niet altijd meeslepend zal zijn. Het onderwijs op grond van dit soort "inzichten" veranderen, is niet intelligent. Daar dan AI de schuld van geven (of minstens digitale technieken) is ronduit dom! Het niet begrijpen van je eigen gedrag (omgang met techniek) is de oorzaak. De discussie in de media over dat algoritmes discrimineren, vind ik al even dom! Het bij datasorteermachines niet anders dan bij andere sorteermachines, het gaat om onderscheiden vinden in de input die aan de machine wordt gevoerd. Als er geen sinaasappel wordt ingestopt, zal er nooit een sinaasappel uitkomen.

Geen opmerkingen:

Een reactie posten

Ik ben er weer! Een jaar geleden hield het op. Als je spreekt van hoofd en hart, was ik volledig gaan samenvallen met mijn hoofd. De verbind...