6 grootste zakelijke blunders veroorzaakt door AI | AI in business #58

Hoe zakelijke tegenslagen te vermijden bij de implementatie van AI?

Zakelijke tegenslagen in AI kunnen ernstige gevolgen hebben voor bedrijven, dus je moet machine learning-systemen zeer zorgvuldig testen voordat je ze op de markt brengt. Anders kunnen grote investeringen in nieuwe technologieën eindigen in een grote financiële en reputatieschade.

Hoe voorkom je dus zakelijke tegenslagen bij de implementatie van kunstmatige intelligentie? Hoewel het eerste advies misschien te eenvoudig lijkt om te werken, is het: “Let op de datakwaliteit!”

Het tweede advies betreft uitgebreide tests in een gesloten omgeving voordat je de tool aan het publiek vrijgeeft. Je moet niet alleen de technische prestaties van de tool testen, maar ook verifiëren:

  • ethische naleving — het doel van de tests is om de vooroordelen en stereotypen die door AI worden gereproduceerd te verminderen,
  • juridische naleving — verifiëren dat de gegevens die door AI-tools worden gebruikt, evenals de inhoud die ze genereren, voldoen aan de wetten van het land.

Zelfs de giganten op het gebied van kunstmatige intelligentie volgen dit advies vandaag de dag niet, en brengen chatbots de wereld in die zijn gelabeld als “eerste experimenten” of “onderzoeksprojecten.” Echter, naarmate de technologie volwassen wordt en wetten die het gebruik van kunstmatige intelligentie regelen van kracht worden, zullen deze kwesties dringender worden.

Google Foto’s

De lijst van zakelijke tegenslagen gerelateerd aan het gebruik van kunstmatige intelligentie begint met een geval uit 2015. Dat is wanneer de Google Foto’s-app, die een vroege versie van kunstmatige intelligentie voor beeldherkenning (computer vision) gebruikte, foto’s van zwarte mensen verkeerd labelde als foto’s van gorilla’s. Deze zakelijke tegenslag gebeurde omdat de trainingsdataset die werd gebruikt om het algoritme te onderwijzen te weinig foto’s van zwarte mensen bevatte.

Wat meer is, Google had een soortgelijk probleem met een Nest slimme camera, die sommige donkerhuidige mensen als dieren identificeerde. Deze incidenten tonen aan dat computer vision-systemen nog steeds moeite hebben met het herkennen van de kenmerken van verschillende rassen.

Zakelijke tegenslagen: Leeftijdsdiscriminatie

In 2023 stemde iTutor Group ermee in om $365.000 te betalen om een rechtszaak over het gebruik van discriminerende wervingssoftware te schikken. De software bleek automatisch vrouwelijke kandidaten boven de 55 jaar en kandidaten boven de 60 jaar te hebben afgewezen, zonder rekening te houden met hun ervaring of kwalificaties.

Amazon faalde op een vergelijkbare manier. Terug in 2014 werkte het bedrijf aan AI om te helpen bij het wervingsproces. Het systeem had moeite om de cv’s van vrouwelijke kandidaten te evalueren omdat het leerde van gegevens die voornamelijk documenten van mannen bevatten. Als gevolg hiervan heeft Amazon het project om kunstmatige intelligentie in het proces te implementeren stopgezet.

Deze gevallen tonen aan dat het automatiseren van het wervingsproces het risico met zich meebrengt om vooroordelen te bestendigen en kandidaten oneerlijk te behandelen.

Bron: DALL·E 3, prompt: Marta M. Kania (https://www.linkedin.com/in/martamatyldakania/)

ChatGPT verzint valse rechtszaken

Een ander geval is zeer actueel. In 2023 gebruikte advocaat Steven A. Schwartz ChatGPT om eerdere rechtszaken te vinden voor een rechtszaak tegen de luchtvaartmaatschappij Avianca. Het bleek echter dat ten minste zes van de door AI geleverde zaken vals waren – ze bevatten onjuiste namen, zaaknummers en citaten.

Dit gebeurde omdat Large Language Models (LLM) hallucineren, dat wil zeggen dat ze waarschijnlijke antwoorden creëren wanneer ze de juiste feiten niet kunnen vinden. Daarom is het noodzakelijk om hun antwoorden elke keer te controleren. En Schwartz heeft deze stap overgeslagen. Daarom heeft de rechter hem $5.000 boete opgelegd voor “grove nalatigheid”.

Zakelijke tegenslagen: Apple Watch die niet goed werkt bij mensen met een donkere huid

Volgens een class action rechtszaak uit 2021 werkt de bloedzuurstof-app op de Apple Watch niet goed voor mensen met een donkere huid. Apple beweert dat het de app heeft getest op een “breed scala aan huidtypes en -tinten”, maar critici zeggen dat de technologieapparaten nog steeds niet zijn ontworpen met donkerhuidige mensen in gedachten.

Bron: DALL·E 3, prompt: Marta M. Kania (https://www.linkedin.com/in/martamatyldakania/)

Zillow in onroerend goed

Zillow, een vastgoedbedrijf, lanceerde Zillow Offers, een programma om huizen te kopen en ze snel weer te verkopen, in 2018. CNN meldde dat Zillow sinds de lancering in april 2018 27.000 huizen had gekocht, maar tegen het einde van september 2021 slechts 17.000 had verkocht. Zillow zei dat de zakelijke tegenslag werd veroorzaakt door het gebruik van kunstmatige intelligentie. Het algoritme voorspelde de huizenprijzen onjuist, waardoor Zillow te veel betaalde voor aankopen. Hoewel het bedrijf het programma onmiddellijk stopzette, moest het 25 procent van zijn personeel ontslaan. Door onbedoeld huizen te kopen voor prijzen die hoger waren dan de huidige schattingen van toekomstige verkoopprijzen, leed het bedrijf een verlies van $304 miljoen.

Microsoft’s racistische chatbot

In 2016 bracht Microsoft een experimentele AI-chatbot genaamd Tay uit. Het was de bedoeling dat het leerde door interactie met Twitter (nu X) gebruikers. Binnen 16 uur “leerde” Tay om beledigende, racistische en seksistische tweets te plaatsen. Twitter-gebruikers provoceerden de bot opzettelijk, die niet de juiste veiligheidsmechanismen had die tegenwoordig in chatbots worden gebruikt, zoals ChatGPT, Microsoft Copilot en Google Bard. Microsoft schakelde de bot snel uit en verontschuldigde zich voor het voorval, maar Tay is een van de grotere zakelijke tegenslagen van Microsoft.

Een chatbot-tegenslag overkwam ook Google, dat in 2020 een bot genaamd Meena uitbracht. Meta (voorheen Facebook) slaagde er ook niet in om een soortgelijke fout te vermijden. In augustus 2022 lanceerde het een nieuwe AI-chatbot genaamd BlenderBot 3, die was ontworpen om met mensen te chatten en van die interacties te leren.

Binnen enkele dagen na de release waren er meldingen dat de chatbot beledigende, racistische en feitelijk onjuiste uitspraken deed in gesprekken. Bijvoorbeeld, het beweerde dat Donald Trump de Amerikaanse verkiezingen van 2020 had gewonnen, verspreidde antisemitische samenzweringstheorieën en bekritiseerde Facebook.

Als je onze inhoud leuk vindt, sluit je dan aan bij onze drukke bijengemeenschap op Facebook, Twitter, LinkedIn, Instagram, YouTube, Pinterest, TikTok.

Robert Whitney

JavaScript-expert en instructeur die IT-afdelingen coacht. Zijn belangrijkste doel is om de productiviteit van het team te verhogen door anderen te leren hoe ze effectief kunnen samenwerken tijdens het coderen.

View all posts →

Robert Whitney

JavaScript-expert en instructeur die IT-afdelingen coacht. Zijn belangrijkste doel is om de productiviteit van het team te verhogen door anderen te leren hoe ze effectief kunnen samenwerken tijdens het coderen.

Share
Published by
Robert Whitney

Recent Posts

De rol van AI in contentmoderatie | AI in business #129

Bedrijven worstelen met het beheren van een enorme hoeveelheid content die online wordt gepubliceerd, van…

2 days ago

Sentimentanalyse met AI. Hoe helpt het om verandering in bedrijven te stimuleren? | AI in business #128

In het tijdperk van digitale transformatie hebben bedrijven toegang tot een ongekende hoeveelheid gegevens over…

2 days ago

Beste AI-transcriptietools. Hoe lange opnames om te zetten in beknopte samenvattingen? | AI in business #127

Wist je dat je de essentie van een meerdaagse opname van een vergadering of gesprek…

2 days ago

AI-video generatie. Nieuwe horizonten in videoinhoudproductie voor bedrijven | AI in business #126

Stel je een wereld voor waarin jouw bedrijf boeiende, gepersonaliseerde video's kan maken voor elke…

2 days ago

LLMOps, of hoe taalmodellen effectief te beheren in een organisatie | AI in business #125

Om het potentieel van Large Language Models (LLM's) volledig te benutten, moeten bedrijven een effectieve…

2 days ago

Automatisering of augmentatie? Twee benaderingen van AI in een bedrijf | AI in het bedrijfsleven #124

In 2018 was Unilever al begonnen aan een bewuste reis om automatisering en augmentatie in…

2 days ago