vrijdag 10 november 2017

Ontwikkel smart, of wordt door smart devices ontwikkeld

Mensen leven steeds meer in een "gemachineerde" werkelijkheid. Om een auto op de weg te houden, moet de bestuurder worden geassimileerd in de fysica van de auto en het systeem waar het onderdeel van is. De mens kan accommoderen. Elke nieuwe technische toepassing is kritisch afhankelijk van of de gebruikers er mee kunnen leren werken. Als het te veel aanpassing in een keer vereist, lukt het niet. Echter, technologie wordt meer en meer voorzien van eigen accommodatievermogen. Google "ziet" bijvoorbeeld wat ik interessant vind, en past daar de advertenties op aan, met als gevolg dat ik in mijn eigen informatiebulb leef. Maar het blijft toch de mens die een meester in aanpassen is. Tablets, voortdurend bereikbaar zijn via Facebook, het kan en dus past de mens zich aan. Wat is de prijs? Moet de technologie wel slimmer worden (aanpassen aan individuele behoeftes, bv door patroonherkenning/bigdata), of moeten we technologie inzetten om de mens slimmer te maken?

Algoritmes zijn in staat vanuit jouw klik- en kijkgedrag (de digitale kruimels die je op internet achterlaat) jouw voorkeuren en allergieën af te leiden en deze vervolgens te koppelen aan meer algemene patronen/segmenten, die ik eerder "eilandjes in de datazee" noemde. Op grond hiervan krijg je aan jouw voorkeuren aangepaste berichten te zien, of word je aan mensen "gekoppeld" die voor jou mogelijk interessant zijn. Hierdoor kan je je sneller ontwikkelen in de richting van je interesse. Voor adverteerders is dit interessant, want zo kan er veel gerichter worden geadverteerd (als gitaarliefhebber krijg ik telkens gitaren voorgeschoteld). De door mij gebouwde algoritmes werken precies zo. Het algoritme is feitelijk niet intelligent, maar construeert matrixen en zoekt daarin vervolgens naar samenhangen, onder meer door data te segmenteren. Zo kan een steeds preciezere inschatting worden gemaakt van jouw eigenschappen (je blijft nl digitale kruimels achtergelaten). Van het segment (eiland) waarop jij je bevindt met betrekking tot een bepaald criterium, zijn de statistieken (gemiddelden, verdelingen etc) bekend. Diverse eigenschappen worden "bepaald", waaronder jouw intelligentie, je politieke voorkeur, je seksuele voorkeuren, diverse persoonlijkheidskenmerken, etc. Natuurlijk door jouw "kruimels" met diverse "eilanden" te vergelijken. De adverteerder zoekt naar die eigenschappen die voor zijn product van belang zijn.

Met mijn team (Saxion lectoraat Brain & Technology) maken wij dit soort algoritmes met als doel verschillende leer- of werkstijlen te kunnen bepalen, zodat daar door professionals rekening mee gehouden kan worden, bv bij educatie en de inrichting van de werkplek. Kinderen en volwassenen met autisme, bijvoorbeeld, leren anders dan neurotypische mensen. Als daar goed rekening mee wordt gehouden, hoeft autisme niet een succesvol en/of gelukkig leven in de weg te staan (in een latere blog kom ik hier op terug). Echter de data die wij "mogen" gebruiken, is zeer beperkt en veel onderzoek als dat van ons is nauw aan medisch ethische commissies gekoppeld. Dat is opmerkelijk. Waarom?

Commerciële partijen als Google en Facebook mogen elk klein spoortje gebruiken, zelfs de typefoutjes die uitgewist worden. Hun doelen zijn niet zuiver eerzaam (verkopen), terwijl onbedoeld mensen door de interveniërende algoritmes en matrixen zonder het te weten in een informatiebulb terecht komen. Iemand met bijvoorbeeld meer conservatieve politieke voorkeuren, leeft in een hele andere Facebook/internet omgeving, dan iemand die progressieve voorkeuren heeft. Of een homoseksueel in een andere omgeving dan een heteroseksueel. De algoritmes selecteren wat jij te zien krijgt. Het is heel goed mogelijk dat je daarmee steeds beter bij een specifieke "configuratie van segmenten" gaat passen en dat jouw ontwikkeling zo onbedoeld in een bepaalde richting wordt gedirigeerd. In het ergste geval kan dit leiden tot een enorm verdeelde wereld, vol conflict, waarin je continu je eigen (voor)oordelen bevestigd ziet! Een gemachineerde kokervisie! Continu en steeds sterker. En niemand lijkt zich hier druk over te maken. Maar het inzetten van deze technieken om de diagnostiek in psychotherapie, educatie of werk te versterken door gepersonaliseerd te kijken, stuit op zeer veel weerstand. Terwijl daarbij leraren, psychologen, psychiaters, therapeuten, arbeidsdeskundige en jobcoaches de data gebruiken in voortdurende samenspraak met de cliënt. In co-makership.

In het kort, slimme technologie met ingebouwd aanpassingsvermogen, biedt grote mogelijkheden, maar minstens even grote gevaren. Het is opmerkelijk dat digitale (algoritmische) surveillance en beïnvloeding op grote schaal vrijwel zonder voorbehoud wordt toegepast, terwijl het bijna onmogelijk is om vergelijkbare technieken in de context van onderwijs en gezondheidszorg met professionals te ontwikkelen en onderzoeken. Nogmaals, een beperking van slimme technologie is dat ze ontwikkeling kan beïnvloeden of zelfs verstoren. Als Netflix op grond van mijn kijkgedrag mij door suggesties helpt te kiezen uit het oneindige aanbod, kan ik nooit meer buiten mijn eigen kaders ontwikkelen. Als ik alleen heb leren genieten van BZN, kom ik zo nooit tot Peter Schat, of Louis Andriesen. Smart technologie kan mensen helpen in hun ontwikkeling, in het bereiken van hun utopie. Maar als we niet uitkijken, doet ze juist het omgekeerde: ontwikkeling beperken!

Geen opmerkingen:

Een reactie posten

Ik ben er weer! Een jaar geleden hield het op. Als je spreekt van hoofd en hart, was ik volledig gaan samenvallen met mijn hoofd. De verbind...