Pas op met kunstmatige intelligentie Kunstmatige intelligentie zet aantoonbaar de winsten van bedrijven hoger, maar tegelijkertijd kleven er de nodige nadelen aan. Zoals bedreiging van burgerrechten en verspreiding van leugens, aldus Masja Zandbergen van Robeco. 28 januari 2021 08:00 • Door Gastauteur IEXProfs De gebeurtenissen in de VS hebben laten zien dat de inzet van kunstmatige intelligentie (AI) ook negatieve maatschappelijke gevolgen kan hebben. Mensen met belangstelling voor één bepaald onderwerp, bijvoorbeeld de vermeende diefstal van de Amerikaanse verkiezingen, zien door de algoritmes die social media gebruiken alleen maar informatie die dit bevestigt. Andere feiten en meningen worden niet getoond. Onderzoek van McKinsey heeft aangetoond dat organisaties kunstmatige intelligentie gebruiken als een waardevol hulpmiddel om extra winst te creëren. Bedrijven uit talloze sectoren kennen nu al 20% of meer van hun winst voor rente en belastingen toe aan AI. Wachten op de regelgever Hoewel dit positief is voor beleggers, zijn wij er bij Robeco ook van overtuigd dat ondernemingen de risico's van het gebruik van AI moeten aanpakken. Hetzelfde onderzoek concludeert namelijk ook slechts een minderheid van de ondernemingen de risico's erkent en dat nog minder ondernemingen iets doen aan de reductie daarvan. Tijdens onze gesprekken met ondernemingen over dit onderwerp horen wij vaak dat toezichthouders scherpere regels moeten formuleren rond het gebruik van deze technologie. Ondernemingen die klaar zijn voor de toekomst wachten die regelgeving echter niet af, maar nemen vanaf het begin hun verantwoordelijkheid. Maatschappelijke problemen De maatschappelijke problemen, die het gevolg kunnen zijn van de inzet van AI, zijn legio: Burgerrechten - AI-systemen worden in toenemende mate ingezet op maatschappelijk gevoelige terreinen als onderwijs, werkgelegenheid, huisvesting, kredietscore, beleidsvorming en strafrecht. Het gebruik vindt vaak plaats zonder context gebonden kennis of geïnformeerde toestemming, waardoor burgerrechten en burgerlijke vrijheden in het geding komen. Werk en automatisering - Automatisering van de werkplek op basis van AI kan de efficiency verbeteren en het aantal repetitieve taken verminderen. Beroepen gaan naar verwachting veranderen, omdat automatisering in bepaalde sectoren banen creëert en in andere sectoren juist medewerkers vervangt. AI kan ook betekenen dat er meer toezicht is op het uitgevoerde werk. Ondernemingen moeten ervoor zorgen dat hun medewerkers zich er ten volle van bewust zijn dat ze worden gevolgd en beoordeeld. Veiligheid en verantwoordelijkheid - In veel sectoren wordt AI al volop ingezet voor besluitvorming, bijvoorbeeld in de financiële dienstverlening, ziekenhuizen en het elektriciteitsnet. Door druk vanuit de markt om te innoveren, worden diverse AI-systemen al ingezet voordat hun technische veiligheid is gegarandeerd. Voorbeelden van wat er mis kan gaan zijn de zelfrijdende auto van Uber, waardoor een vrouw om het leven kwam, en een systeem van IBM dat onveilige en onjuiste kankerbehandelingen adviseerde. Vooroordelen - Het meest besproken probleem van AI-systemen is dat ze kunnen leiden tot vooroordelen, die vooringenomenheid en maatschappelijke ongelijkheid weerspiegelen en zelfs kunnen versterken. Zo bleek uit een rapport van UNESCO dat virtuele assistenten, van Alexa van Amazon tot Siri van Apple, discriminatie op grond van geslacht versterken. Volgens dit rapport hebben deze virtuele assistenten standaard een vrouwenstem en zijn ze zodanig geprogrammeerd dat het lijkt alsof vrouwen onderdanig zijn. Op dit moment zijn nog maar 12% van de AI-onderzoekers en slechts 6% van de softwareontwikkelaars vrouwen. Black box Omdat AI-ingenieurs hoofdzakelijk witte, mannelijke technici zijn, kan in de ontwikkeling van toepassingen vooringenomenheid sluipen op basis van hun waarden en overtuigingen. Ook kan het gebruik van onjuiste modellen of modellen met onbedoeld discriminatoire kenmerken leiden tot een vooringenomen systeem. Een ander probleem is de Black box, die het onmogelijk maakt de stappen te volgen die het AI-systeem neemt om tot een bepaalde beslissing te komen. Zo kan onbewust een vooroordeel ontstaan. Erger is als er bewust vooroordelen in de algoritmes zijn ingebouwd. Contentmoderatie in de schijnwerpers Social media-platforms gebruiken algoritmes voor content moderatie en menselijke teams voor de controle van user-generated content op basis van een set vooraf gedefinieerde regels en richtlijnen. Voor content moderatie moeten medewerkers beschikken over sterke psychische veerkracht. Het werk is bovendien vaak niet geschikt om vanuit huis te doen, vanwege de aanwezigheid van gezinsleden in de ruimte waarin wordt gewerkt. Dit betekent dat ondernemingen tijdens Covid-19 de hoeveelheid content die gecontroleerd kon worden aanzienlijk moesten afschalen. Het belang en de relevantie van content moderatie werd duidelijk door de #StopHateForProfit-campagne, die zijn pijlen richtte op de rentabiliteit van kwetsende content en desinformatie op Facebook. Boycot van advertenties De campagne kreeg het voor elkaar dat meer dan 1.000 adverteerders – waaronder grote spelers zoals Target, Unilever en Verizon – in juli 2020 overgingen tot een boycot van advertenties op Facebook. Ook in de aanloop naar de Amerikaanse verkiezingen bleven de schijnwerpers gericht op content moderatie. Alle grote social media-bedrijven stelden toen strengere voorschriften en procedures op. AI vraagt om engagement Vanuit beleggersperspectief zien we grote kansen in de AI-trend. Wij erkennen echter ook dat AI ongewenste effecten met zich mee kan brengen en vinden dat de ondernemingen waarin wij beleggen die moeten aanpakken. Daarom zijn we in 2019 gestart met een engagement rond het thema maatschappelijke impact van kunstmatige intelligentie. Wij vragen ondernemingen vijf dingen te doen: Helder beleid ontwikkelen en publiceren voor het gebruik, de aankoop en de ontwikkeling van kunstmatige intelligentie, dat zich specifiek richt op maatschappelijke gevolgen en de aantasting van mensenrechten. Periodieke impactanalyses uitvoeren op hun AI-activiteiten. De analyse moet betrekking hebben op discriminatoir gedrag, maatschappelijke vooroordelen, verborgen werk en privacy kwesties. Ondernemingen moeten controleprocessen in stand houden voor het identificeren van incidenten en risico's die verband houden met de onbedoelde consequenties van AI. Bestuurders moeten voldoende opgeleid en ervaren zijn om betekenisvol toezicht op het AI-controlekader uit te oefenen en moeten het AI-beleid en risicorapportages goedkeuren. Rekening houden met de maatschappelijke gevolgen van AI in de ontwerp- en ontwikkelingsfase. Dit betekent onder andere dat er voldoende kennis van mensenrechten en ethiek aanwezig moet zijn in de ontwikkelteams. Om maatschappelijke vooroordelen tegen te gaan moet de onderneming ook diversiteit en inclusie in de AI-teams bevorderen. Kies voor een multi-stakeholderbenadering. Er zijn diverse initiatieven en platformen om best practices te delen en te promoten. Wij verwachten ook dat ondernemingen rapporteren over hun lobbyactiviteiten op het gebied van AI-wetgeving. Veel meer bewustwording noodzakelijk In de loop van 2020 hebben we gesproken met de meeste ondernemingen in onze engagementgroep. Sommige ondernemingen trokken tijdens de eerste gesprekken het belang van deze kwestie in twijfel, of wilden er geen verantwoordelijkheid voor nemen. Bij een aantal zien we deze houding al iets veranderen. Het gebruik van kunstmatige intelligentie zal alleen maar toenemen en ons privéleven en werk steeds meer gaan beïnvloeden. Aangezien moraal en ethiek niet programmeerbaar zijn, verwachten wij van ondernemingen dat zij hun verantwoordelijkheid nemen. We hebben nog een lange weg te gaan. Gastauteurs zijn beleggers die schrijven op persoonlijke titel. De informatie in deze column is niet bedoeld als professioneel beleggingsadvies of als aanbeveling tot het doen van bepaalde beleggingen. Deel via:
J. Safra Sarasin Sustainable Asset Management 18 apr "Reshoring biedt mooie kansen voor groene beleggers" Volgens fondsmanager Daniel Lurch van het JSS Sustainable Equity Green Planet fonds van J. Safra Sarasin profiteren met name de duurzaamste bedrijven van de huidige herschikking van de wereldwijde productieketen. Welke dat zijn?
Impactbeleggen 11 apr “Het is fijn om goed te doen” Ook buiten Nederland is impactbeleggen ontdekt. Het Schotse Baillie Gifford bijvoorbeeld lanceerde in 2017 het Positive Change Fund. Vlak voor Pasen was Rosie Rankin, medeverantwoordelijk voor dit fonds, over in Amsterdam voor de tweedaagse Impact Europe Summit in de Beurs van Berlage. Rob Stallinga sprak met haar.
Impactbeleggen 03 apr "Impactbeleggers staan aan de goede kant van de geschiedenis" Hadewych Kuiper, directeur beleggingen bij Triodos IM, is niet onder de indruk van alle berichten dat duurzaam beleggen het beste heeft gehad. "Zo ziet tegenwerking van vooruitgang eruit."
Impactbeleggen 30 jan JSS Green Planet Fund: Kansrijk beleggen in een groene toekomst Beleggen in de toekomst is volgens S. Safra Sarasin beleggen in de groene transitie. Lees meer over het JSS Sustainable Equity Green Planet Fund, dat in de laatste drie jaar niet alleen hard is gegroeid maar ook sterk heeft gepresteerd.
ESG 17 jan ESG is dood, lang leve ESG 2.0! Matt Christensen, hoofd duurzaam en impact beleggen bij Allianz Global Investors, schetst de vijf belangrijkste duurzaamheidsthema's van 2024. Politieke verdeeldheid dreigt het grootste struikelblok te worden.
ESG 01 nov Biodiversiteitsverlies, het megarisico dat slechts enkelen zien Het verlies van biodiversiteit is volgens De Nederlandsche Bank (DNB) een groot risico voor de financiële stabiliteit. Cardano heeft een methode ontwikkeld om dit verlies te meten en zo de beleggingsrisico’s in kaart te brengen. IEXProfs sprak met Dennis van der Putten, Chief Sustainability Officer bij Cardano.