Versnel je groei in 2024

  • Inzichten van 24 digitale experten
  • 47 concrete tips die je kan toepassen
  • Thema’s rond: data, contentmarketing, videomarketing, customer experience, social selling, customer journeys, …
  • 63 pagina’s vol groeiversnellers
  • 4 podcasts met 4 topmarketeers
Download whitepaper

AI en ChatGPT: Handen af van onze content!

We zijn met zijn allen geweldig onder de indruk van ChatGPT. De AI-tool opent een wereld van nieuwe mogelijkheden en belooft ons werk een stuk makkelijker te maken, maar is dat wel zo? En mag dit zomaar? Laten we even voorbij de hype kijken.

Wat is er niet goed aan ChatGPT? Vriendelijk als we zijn, vragen we het eerst aan ChatGPT zelf. De chatbot ligt zwaar onder vuur, maar toont zich verrassend open over zijn eigen tekortkomingen.

“Hoewel ChatGPT vele voordelen biedt als een AI-taalmodel, zijn er ook enkele beperkingen en uitdagingen waarmee rekening moet worden gehouden.

1. Bias: ChatGPT is getraind op een enorme corpus van tekstgegevens en als gevolg hiervan kunnen bepaalde vooroordelen en aannames in de gegevens worden weerspiegeld in de gegenereerde antwoorden. Dit kan leiden tot onnauwkeurige of bevooroordeelde antwoorden, vooral in situaties waarbij culturele en maatschappelijke normen een rol spelen.

2. Contextgevoeligheid: ChatGPT heeft soms moeite met het begrijpen van de context van de vraag of prompt en kan daardoor soms onnauwkeurige of irrelevante antwoorden genereren. Dit kan vooral een probleem zijn bij complexe vragen of situaties die subtiele nuance vereisen.

3. Beperkte creativiteit: Hoewel ChatGPT in staat is om mensachtige antwoorden te genereren, heeft het nog steeds beperkte creativiteit en kan het moeite hebben met het genereren van unieke of originele antwoorden.

4. Veiligheid en privacy: ChatGPT kan worden gebruikt voor phishing en andere vormen van cyberaanvallen, zoals het genereren van nepnieuws of het imiteren van mensen om gevoelige informatie te verkrijgen.

Het is belangrijk om deze uitdagingen te erkennen en gepaste maatregelen te nemen om de nauwkeurigheid, veiligheid en ethische verantwoordelijkheid van het gebruik van ChatGPT te waarborgen.”

Lees ook: Wat is er goed aan ChatGPT?

Bescheiden of misleidend?

Klinkt als een oefening in bescheidenheid, toch? Bijna een boetedoening. Maar dat maakt de problemen er niet minder erg om.

ChatGPT erkent dan wel dat het verre van perfect is, de chatbot vermeldt niét dat hij ronduit onbetrouwbaar is. Hij erkent dat hij niet superslim is, maar laat na om eraan toe te voegen dat hij vaak misleidende informatie genereert. Hij erkent dat hij kan worden gebruikt voor onwettelijke praktijken, maar verzwijgt dat hij ook zelf buiten de lijntjes van de wet kleurt.

Nextflix

Heb je de animatiefilm ‘The dog and the boy’ van Netflix gezien? De achtergrondbeelden van het cinematografisch pronkstuk zijn niet gemaakt door tekenaars en grafisch ontwerpers, maar door AI.

Netflix probeert dit experiment te verkopen door te beweren dat ze hiermee de animatie-industrie wil helpen. De sector kampt immers met een schrijnend tekort aan arbeidskrachten (bron: De Standaard).

Heel wat tekenaars en artiesten reageren verbolgen. Want AI creëert geen content, het kopieert bestaande content en gaat daarmee aan de slag. AI kan in dit voorbeeld alleen maar werken omdat het zich kan baseren op bestaande beelden van kunstenaars. Kunstenaars die hier hun tijd en creativiteit in gelegd hebben. Zij klagen over een gebrek aan erkenning én vrezen voor hun job. Hun stelling: AI verzekert niet de toekomst van de animatie-industrie, maar brengt ze net in gevaar.

ChatGPT

Hetzelfde geldt voor ChatGPT, een chatbot die op basis van bestaande content antwoorden formuleert op bijna alle vragen. In tegenstelling tot Google, dat vooral focust op het indexeren van woorden, indexeert ChatGPT op basis van taalmodellen. Vraag je iets aan ChatGPT, dan zal hij bestaande content gebruiken en die herformuleren.

ChatGPT identificeert zaken zoals feiten, ideeën en inzichten in een tekst. Het kan dus die feiten, ideeën en inzichten gaan herformuleren en combineren met andere inzichten uit andere teksten.

Het resultaat is net zoals in het voorbeeld van Netflix gebaseerd op het werk van anderen. Die redacteurs en bedrijven worden daarvoor niet vergoed, zelfs niet eens vermeld als bron. Op Youtube en Tiktok vind je intussen tal van tools om boeken te “schrijven” met behulp van ChatGPT. Midden februari kon je op Amazon al meer dan 200 van zulke boeken kopen.

Onwaarheden en vooroordelen

Dr. Laura Koenders en Davitze Könning van de Universiteit Utrecht stellen een bijkomend probleem aan de kaak:

“Een ander nadeel van ChatGPT komt voort uit de trainingsdata die gebruikt zijn om het model te ontwikkelen. Ten eerste zitten er vooroordelen in data, en volgens het oude principe ‘garbage-in-garbage-out’ is de output van de chatbot afhankelijk van de trainingsdata, en is de kans dus groot dat de antwoorden van ChatGPT deze vooroordelen zullen weerspiegelen. Zo is bijvoorbeeld van de voorganger van ChatGPT (GPT-3) duidelijk dat er genderstereotype associaties in de antwoorden zaten. OpenAI, het bedrijf achter ChatGPT, zet filters en menselijke controle in om duidelijke onwaarheden en de ergste vooroordelen eruit te halen. Echter, dit blijft een inherente beperking.”

Bard

Het antwoord van Google op ChatGPT is Bard. Ook die AI-tool heeft al voor de nodige opschudding gezorgd. Google verloor onlangs meer dan 100 miljard euro aan aandelenwaarde toen Bard een verkeerd antwoord gaf op een vraag, in een promotiefilmpje opgesteld door Google om Bard te promoten.

Een bug in het taalmodel? Ergens foute informatie ‘geraadpleegd’? Naast het stelen van de content, is er ook het gevaar van desinformatie die AI-bots kunnen verspreiden. Europa lanceert binnenkort de AI Act, die ethisch gebruik van de AI-technologie verplicht. Maar deze reglementering is opgesteld voor ChatGPT zijn entree maakte. Zoals het vaak gaat, heeft de technologie de wetgever in snelheid genomen.

Zelfanalyse

Wat zegt AI zelf over het auteursrecht en bronvermelding?

“Als onderdeel van OpenAI ben ik een kunstmatige intelligentie die is ontworpen om antwoorden te geven op vragen door te zoeken naar informatie uit een enorme hoeveelheid tekst. Ik ben niet specifiek getraind om bronnen te vermelden bij mijn antwoorden, omdat mijn antwoorden vaak een samenvatting zijn van informatie die ik uit veel verschillende bronnen heb geleerd. Het is wel belangrijk om bronnen te vermelden wanneer dit nodig is om de juistheid van informatie aan te tonen of wanneer het auteursrecht of andere intellectuele eigendomsrechten van toepassing zijn. Ik raad altijd aan om de juistheid van informatie te verifiëren door meerdere betrouwbare bronnen te raadplegen, vooral als de informatie belangrijk is of beslissingen moet sturen.”

Tja…

De redacteur

Even voor alle duidelijkheid: het schrijven van een goed artikel vereist méér dan wat ChatGPT doet geloven. Een belangrijk deel van het werk bestaat uit het analyseren van bestaande content én eigen onderzoek.

Een fatsoenlijke redacteur zal altijd zijn belangrijkste bronnen vermelden. En wanneer hij toegang nodig heeft tot betalende bronnen, dan zal hij die ook netjes betalen. Iets wat AI dus duidelijk niet doet. Auteursrecht en bronvermelding lapt AI eenvoudig weg aan zijn laars.

Wetgever?

Langs de kant van belangenverenigingen zoals VVJ (Vlaamse vereniging voor journalisten) en Sabam blijft het voorlopig oorverdovend stil.

ChatGPT is onlangs verboden in Italië (omwille van privacyredenen). Ook verschillende Amerikaanse universiteiten verbieden de tool. In januari dienden drie Amerikaanse artiesten een klacht in tegen CHatGPT, omdat hun auteursrecht niet werd gerespecteerd. De uitspraak kan een precedent zijn en wordt dan ook aandachtig gevolgd door kunstenaars en de industrie zelf (bron: De Morgen). Ook de muziekindustrie is wakker geschoten, zo vraagt Univeral Music aan de AI bouwers om geen toegang te geven tot hun auteursrechtelijk beschermde songs (bron HLN). AI is immers ook instaat om zelf muziek te genereren, op basis van bestaande muziek weliswaar.

Konijnen

AI biedt uiteraard ook kansen en daar moeten we als contentcreator mee leren omgaan. Maar meer dan ooit moeten we de zaken bekijken met een kritische geest. Dat techreuzen onze content stelen en herformuleren, vinden wij een ernstig probleem.

In De Standaard omschrijft Patrick Goethals (Hoogleraar Toegepaste Taalkunde van de UGent) het als volgt: “Dit moet de grootste intellectuele hack zijn uit de geschiedenis.”

test 1

test 1