"We moeten iets met AI." Sinds de lancering van ChatGPT in 2022 is dit een veelgehoorde uitspraak van ondernemers. Aan het gebruik van generatieve AI-tools zitten zeker grote voordelen, maar voor de maatschappelijke kosten is nog niet veel aandacht. Volgens auteur en keynote-spreker Aaron Mirck zouden we een wat meer kritische houding ten opzichte van AI moeten innemen.
Persberichten schrijven, teksten voor je eventwebsite bedenken of een pakkend bericht voor je social media kanalen opstellen; de manier waarop je generatieve AI-tools zoals ChatGPT, Gemini, Microsoft Copilot en Midjourney kunt toepassen lijkt eindeloos, net als de tijd die ze je besparen. "De belofte van dit soort tools is dat het ons productiever maakt", vertelt Aaron Mirck, auteur van het boek 'AI, voorbij de hype'. "Daardoor zouden we zo'n tien tot twintig procent van onze tijd op een andere manier in kunnen zet-ten. Een vaak gemaakte vergelijking is die met een stagiair. Hij of zij neemt werk uit handen waar je niet aan toekomt of wat je niet interessant vindt." Die vergelijking gaat eveneens op wat betreft de output van generatieve AI-tools. "Qua kennisniveau zijn de AI-tools afhankelijk van de data op internet waarmee getraind is. Internet staat echter vol met meningen die eerder het niveau van de gemiddelde internetgebruiker hebben, dan die van een expert. Net als het werk van een stagiair is de output van een AI-tool dus niet foutloos." Controleren Het feit dat er op het resultaat van AI-tools soms nog wel wat valt aan te merken, is één van de redenen waarom we er verstandig aan doen om een wat meer kritische houding tegenover het gebruik hiervan in te nemen. "Een AI-tool scant het internet af voor informatie. Het maakt daarbij geen onderscheid in de herkomst van de informatie en door wie het is geschreven. Dat betekent dat nepnieuws als bron kán worden gebruikt. Daarmee ontstaat het risico dat je output foute informatie bevat. Ga je die delen, dan ga je de mist in. Daarom moet je altijd de resultaten controleren." In zijn boek laat Aaron Mirck diverse experts aan het woord die met klem afraden om AI-tools te gebruiken voor bijvoorbeeld het controleren van informatie of het opstellen van juridische documenten en contracten. Inclusief Waar je eveneens voor moet waken, is dat de output van generatieve AI-tools afhankelijk is van de input, waardoor bestaande vooroordelen worden versterkt. Je teksten kunnen daardoor niet inclusief van toon zijn en een beperkte doelgroep aanspreken. In het ergste geval kunnen de teksten zelfs racistisch zijn. "Wanneer een AI-tool vacatures voor je bedrijf gaat selecteren, kunnen daar al snel vooroordelen in sluipen. Want als jouw werknemersbestand bijvoorbeeld voornamelijk bestaat uit witte mannen, dan is de tool op basis daarvan getraind en is de kans dus groot dat je die categorie mensen gaat aantrekken. Overigens zijn er wel alternatieven te vinden om dit te voorkomen, zoals Missjourney (een alternatief voor Midjourney, red) voor het genereren van afbeeldingen." Gegevensbescherming Een ander punt van aandacht dat bij het gebruik van AI-tools om de hoek komt kijken, is gegevensbescherming. "De veelal gratis AI-tools zijn afhankelijk van data om het systeem te trainen. Als je niet betaalt, is het logisch dat jouw data veel meer gebruikt wordt, want wat heeft zo'n bedrijf anders aan jou? Van ChatGPT is bekend dat de tool de input en de output gebruikt als trainingsmateriaal. Ook houdt de tool bij wat je typt, waar je bent en welke websites je bezoekt. Die informatie verkoopt het aan adverteerders; eigenlijk net zoals Facebook en Google bijhouden wat we online doen en die informatie aan andere bedrijven verkopen." Datalek et gebruik van jouw data door generatieve AI-tools kan in het ergste geval zelfs voor een datalek zorgen. Aaron Mirck noemt in zijn boek een voorbeeld van een afdeling van Samsung in Zuid-Korea, die onbedoeld gevoelige informatie deelde met de openbare tool van ChatGPT. Hierdoor kunnen gegevens van klanten en leveranciers op straat komen te liggen, met boetes en imagoschade als gevolg. Ook bestaat het risico dat intellectueel eigendom via de tool openbaar wordt gemaakt. Als de tool eenmaal deze informatie heeft gebruikt als trainings-materiaal, heb je daar geen controle meer over. "Het gebruik van jouw data kun je afschermen door een abonnement af te sluiten, maar de huidige abonnementen hebben dan wel minder functionaliteiten. En dan kun je je nog steeds afvragen waar je data wordt opgeslagen. Het zou een mooie oplossing zijn wanneer de grote Europese tech-reuzen zich commit-teren om af te zien van het verzamelen van data als business model." Maatschappelijke impact Aaron Mirck geeft in zijn boek aan dat de vraag of het gebruik van AI nodig, nuttig of zinnig is, zelden wordt gesteld. Wanneer je een actief mvo-beleid voert, zou je je wél over dat vraagstuk moeten buigen. Want er is nu vooral aandacht voor de economische voordelen die deze tools kunnen bieden, terwijl de maatschappelijke kosten er niet om liegen. "Twintig jaar geleden werden we verleid om met Facebook aan de slag te gaan. Nu komen we erachter dat het toch niet zo'n jofel bedrijf is. Ook bij generatieve AI-tools kunnen we negatieve effecten aanwijzen die direct in verband kunnen worden gebracht met het gebruik hiervan." Minderjarige datawerkers Een van de voorbeelden die de auteur in zijn boek aanhaalt, zijn de werknemers die - door de bedrijven achter de generatieve AI-tools zoals ChatGPT - worden ingezet om aanstootgevende content te filteren. Dit werk wordt goedkoop uitbesteed - net als Microsoft, Google en Meta dat deden - bij Sana, een outsouringbedrijf in Kenia, wiens werknemers last kregen van psychische klachten. Kolotibablo levert zelfs minderjarige datawerkers. "AI-bedrijven besteden werk uit dat wij hier niet willen doen, zonder eerlijke beloning of gedegen controle op de arbeidsomstandigheden. Of je met een niet zo ethisch bedrijf zaken zou moeten doen, is een vraag die vaker zou moeten worden gesteld." Stroom Een ander voorbeeld dat nu nog onderbelicht is, is de enorme hoeveelheid stroom die nodig is om de data te verwerven, op te slaan en te verwerken. Ook zorgt het trainen en gebruiken van generatieve AI-tools volgens Mirck voor gigantische hoeveelheden CO2-uitstoot. "Wie tussen de twintig en vijftig vragen aan ChatGPT stelt, zorgt dat er een halve liter water verloren gaat. Elke vraag aan ChatGPT zorgt voor meer dan vier gram CO2-uitstoot, evenveel als bij de productie van een plastic tasje. Tegen 2027 zou alleen al ChatGPT evenveel stroom gebruiken als heel Nederland." AI als spiegel Aan het gebruik van AI zitten overduidelijk voor- en nadelen. "In het beste geval is AI een spiegel die jou bewust maakt van het feit dat je bepaalde plannen hebt of bepaalde dingen wilt doen. Juist door de 'ongekende' mogelijkheden van AI ontstaan er veel nieuwe ideeën. Voor die ideeën kan AI een oplossing bieden, maar er zijn wellicht ook betere of simpelere oplossingen. Elke ondernemer zou zichzelf de vraag moeten stellen of AI een doel of een tool is. Ik hoop van harte dat er een kentering gaat plaatsvinden waarbij we een wat kritischere houding gaan aannemen ten opzichte van het gebruik van AI, en dat we niet klakkeloos achter de voor-delen van generatieve AI-tools aanlopen." Tips Of je wel of niet gebruikmaakt van generatieve AI-tools, is een afweging die ieder voor zichzelf moet maken. Kies je ervoor om het in te zetten, lees dan vooral onderstaande tips door: -Informeer jezelf en je werknemers goed over de voor- en nadelen van AI-tools; -maak duidelijke afspraken over waar je AI-tools wel en niet voor gebruikt; -gebruik AI-tools voor taken waar je niet goed in bent of geen tijd voor hebt; -besteed taken waar je juist goed in bent niet uit aan AI. De kans dat je er zelf beter in bent is groot. Bovendien houdt het je brein scherp. Geen ChatGPT voor ambtenaren Op dit moment bestaat er geen wet- en regelgeving die generatieve AI-tools en het gebruik ervan reguleert. Dat maakt dat het Rijk geen voorstander is van het gebruik van dergelijke tools door ambtenaren. In december 2023 publiceerde demissionair staatssecretaris digitalisering Alexandra van Huffelen in een kamerbrief het voorlopig standpunt over generatieve AI door Rijksorganisaties. In deze brief stond onder andere het volgende: "Niet-gecontracteerde generatieve AI-toepassingen zoals ChatGPT, Bard (tegenwoordig Gemini, red.) en Midjourney, voldoen over het algemeen niet aantoonbaar aan de geldende privacy- en auteursrechtelijke wetgeving. Zodoende is het gebruik hiervan door Rijksorganisaties (of in opdracht daarvan) in beginsel niet toegestaan, in die gevallen waarin het risico bestaat dat wetgeving wordt overtreden, tenzij de aanbieder en de gebruiker aantoonbaar voldoen aan de geldende wet- en regelgeving." Het voorlopige standpunt zou geen categorisch verbod van de technologie zijn, aangezien het gebruik niet wordt ontzegd, maar gekaderd. Over welke leveranciers en toepassingen wel voldoen aan de wet- en regelgeving, heeft de minister in de kamerbrief geen uitspraak gedaan. In de praktijk komt het erop neer dat de overheid ambtenaren niet toestaat om ChatGPT, Gemini en Midjourney te gebruiken. Het is niet ondenkbaar dat Rijksdiensten in de toekomst hun leveranciers gaan verplichten om inzage te geven in hoeverre zij werken met generatieve AI-tools en welke afspraken de leveranciers hebben gemaakt. Veel Rijksdiensten kijken nu al kritisch naar hoe duurzaam hun leveranciers werken en zijn verplicht om dit mee te nemen in hun beslissing om wel of niet met een partij in zee te gaan.
| Inschrijven nieuwsbriefBlijf op de hoogte van alle nieuwtjes uit de branche
|