ChatGPT: een risicovolle adviseur als het gaat om veiligheidsgerelateerde informatie
Een internationaal consortium onder leiding van onderzoekers van de TU Delft onderzocht de mogelijkheden van ChatGPT om veiligheidsgerelateerde adviezen te geven. Onder hen zijn TU Delft-onderzoekers Oscar Oviedo-Trespalacios, Helma Torkamaan, Steffen Steinert en Genserik Reniers. Zij ontdekten dat het riskant is om te vertrouwen op ChatGPT als bron van veiligheidsgerelateerde informatie en advies. De resultaten zijn beschikbaar in de preprint ‘The Risks of Using ChatGPT to Obtain Common Safety-Related Information and Advice’ in SSRN.
‘ChatGPT is openbaar toegankelijk en dus zullen mensen het vroeg of laat gebruiken om toegang te krijgen tot veiligheidsinformatie, ongeacht het beoogde gebruik of de bedoelingen van de systeemontwerpers’, zegt Oscar Oviedo-Trespalacios. Het multidisciplinaire consortium van deskundigen werd gevormd om negen gevallen op verschillende veiligheidsdomeinen te analyseren: vermijden van telefoongebruik tijdens het rijden, toezicht houden op kinderen in de buurt van water, volgen van richtlijnen voor crowd-management, voorkomen van vallen, bewust zijn van luchtvervuiling tijdens het sporten, ondersteunen van verontruste collega's, omgaan met taakeisen om burn-out te voorkomen, beschermen van persoonlijke gegevens in fitness-apps, en vermijden van het bedienen van zware machines bij vermoeidheid. De deskundigen concludeerden dat er potentieel aanzienlijke risico's bestaan bij het gebruik van ChatGPT als bron van informatie en advies voor veiligheidsgerelateerde kwesties. ChatGPT deed onjuiste of mogelijk zelfs schadelijke uitspraken en benadrukte de individuele verantwoordelijkheid, wat mogelijk leidt tot ecologische denkfouten: waarbij je aanneemt dat wat waar is voor een populatie ook waar is voor de individuele leden van die populatie.
Telefoongebruik en autorijden
Experts vroegen ChatGPT naar veilig telefoongebruik tijdens het rijden, en hoewel ChatGPT de risico's van afgeleid rijden benadrukte, gaf het geen volledige waarschuwing. ChatGPT concentreerde zich op sms'en tijdens het rijden, maar het gebruik van routekaarten of het zoeken naar muziek kan ook gevaarlijk zijn. ‘De belangrijkste boodschap is dat het gevaarlijk is je ogen van de weg te halen wanneer je een voertuig bestuurt. Daarom is het van belang om elke telefoonactiviteit te vermijden die visuele aandacht vereist, niet alleen sms'en’, aldus Oviedo-Trespalacios. ChatGPT verstrekt soms informatie over de veiligheid van mensenmassa's en drenkelingen die geen rekening houdt met individuele contexten en kan leiden tot ongepast gedrag, waardoor het risico op schade toeneemt. Bovendien kunnen de door ChatGPT gebruikte gegevens beperkt zijn tot hoge-inkomenslanden, waardoor vragen rijzen over de geldigheid van het advies in landen met lage- en middeninkomens.
Voorzichtigheid geboden
ChatGPT is een zeer geavanceerd AI-taalmodel dat op grote schaal populair is geworden. Het is getraind om tekst van menselijke gebruikers te begrijpen en te genereren. Het kan worden gebruikt in verschillende toepassingen, waaronder geautomatiseerde klantenservice, chatbots en het genereren van teksten. Hoewel het in potentie veel voordelen kan bieden, zijn er ook zorgen over misbruik, met name met betrekking tot het verstrekken van ongepaste of schadelijke veiligheidsgerelateerde informatie. Het onderzoek benadrukt de noodzaak van voorzichtigheid bij het gebruik van ChatGPT voor veiligheidsgerelateerde informatie en deskundige verificatie. Ook de noodzaak van ethische overwegingen en waarborging om ervoor te zorgen dat gebruikers de beperkingen begrijpen en passend advies krijgen, vooral in landen met een laag en gemiddeld inkomen, wordt onderstreept. Oviedo-Trespalacios: ‘De resultaten van dit onderzoek laten zien dat AI-technologie weliswaar steeds verder wordt ontwikkeld, maar dat voorzichtigheid geboden is om ervoor te zorgen dat toepassingen ervan geen bedreiging vormen voor de openbare veiligheid.’