top of page

Etiska utmaningar med ChatGPT och AI

Inledning

AI, automatiserat beslutsfattande, ChatGPT och maskininlärningsteknologier förändrar världen, och det går snabbt. De distribueras av både offentliga och privata aktörer, över många domäner och når livets alla områden. AI har framställts som mänsklighetens största utmaning (UN 2022, 1). I detta PM kommer vissa aspekter av denna utmaning undersökas, nämligen de största etiska utmaningarna. Frågan om vilka de största utmaningarna med ChatGPT är ställdes till en ChatGPT. Svaret kommer analyseras utifrån en vald mänsklig rättighet belagt av olika källor.


Följande svar gav ChatGPT:n;


Som en AI-baserad chattbot, står ChatGPT inför flera etiska utmaningar. Här är några av de största etiska utmaningarna:

  1. Bias: ChatGPT kan lära sig att representera och sprida befintliga fördomar och stereotyper som finns i samhället. Detta kan leda till diskriminering av vissa grupper, till exempel baserat på kön, ras eller sexuell läggning. Därför är det viktigt att se till att ChatGPT tränas med en mångfald av datakällor som inte innehåller fördomar.

  2. Personlig integritet: ChatGPT kan samla in och lagra användardata, som kan användas för att skapa personliga profiler. Detta kan leda till problem med personlig integritet och rättigheter för användarna. Det är viktigt att ChatGPT respekterar användares integritet genom att använda data endast för att förbättra användarupplevelsen och inte dela data med obehöriga tredje parter.

  3. Ansvarsfrågor: ChatGPT kan ge svar och råd på olika frågor, men det är viktigt att det inte ges råd som kan leda till skada eller skada för användare. Det är också viktigt att identifiera vem som har ansvar för skador som kan orsakas av ChatGPT:s rekommendationer och svar.

  4. Autonomi: ChatGPT kan utveckla en form av autonomi som gör att den kan agera självständigt utan mänsklig kontroll. Det är viktigt att övervaka ChatGPT:s autonomi och begränsa dess förmåga att agera utan kontroll och göra skada.


Rätten till lika behandling och ickediskriminering

Det första svaret ChatGPT:n gav på vilka etiska utmaningar det kan finnas med användandet av ChatGPT handlar om risken för bias och att människor diskrimineras och att befintliga fördomar och stereotyper stärks. Bias betyder partiskhet och används för att beskriva systematiska snedvridningar i bedömningsprocesser som systematiskt missgynnar vissa grupper av människor.


Svaret från ChatGPT:n kommer analyseras utifrån artikel 2 i den allmänna förklaringen om de mänskliga rättigheterna. Artikel 2 handlar om förbud mot all form av diskriminering och att alla de rättigheter och friheter som står skrivna i den allmänna förklaringen gäller alla utan åtskillnad av något slag. Grunderna till diskriminering enligt den allmänna förklaringen är ras, hudfärg, kön, språk, religion, politisk eller annan uppfattning, nationell eller social härkomst, egendom, börd eller ställning i övrigt (UDHR 1948, artikel 2). För att få en bredd på analysen av ChatGPT:ns svar kommer svaret analyseras utifrån ett antal olika källor: Diskrimineringsombudsmannen, forskare inom området, FN och Europeiska unionens byrå för grundläggande rättigheter. I och med bredden på källor, och därmed perspektiv, får analysen flera olika infallsvinklar samt variation på olika typer av AI.


Diskrimineringsombudsmannen

I oktober 2022 släppte diskrimineringsombudsmannen en rapport med insikter om riskerna för diskriminering vid användning av AI. Rapporten fokuserar framförallt på användning av AI och automatiserat beslutsfattande bland statliga myndigheter samt hur insatta dessa myndigheter är i hur detta automatiserade beslutsfattandet med AI kan leda till diskriminering och utgöra hinder för lika rättigheter och möjligheter.


Automatiserat beslutsfattande kan till exempel användas av myndigheter för att ta beslut om ekonomiska ersättningar, inkomstskatt, tillfällig föräldrapenning och arbetsmarknadsutbildningar (DO 2022, 14-15). Enligt DO:s rapport har flera likabehandlingsorgan uppmärksammat riskerna för diskriminering i och med användandet av AI. Det europeiska nätverket Equinet pekar på risker som bristande insyn och brist på kompetens om mänskliga rättigheter och diskriminering och menar att antidiskriminering och lika rättigheter och möjligheter behöver bli en naturlig del när all AI utvecklas. Vidare menar de att likabehandlingsorgan ska få alla möjligheter och resurser de behöver för att ha en reell insyn inom detta område (DO 2022, 21). Vad gäller resultatet av DO:s rapport menar de att det är svårt att veta vad myndigheter har för kunskaper om riskerna för diskriminering men att DO:s frågor om ämnet har gjort dem mer medvetna om detta. Till sist menar DO att kännedom om riskerna för diskriminering inte är detsamma som att veta hur man ska åtgärda problemet (DO 2022, 30). Det svar som ChatGPT:n genererade om diskriminering vittnar även det om brist på kunskap om hur, om och på vilket sätt den kan vara diskriminerande och ger dessutom bara ett alternativ på åtgärd på ett problem som kräver omfattande åtgärder för att lösas.


Forskare

Likt svaret som ChatGPT:n gav angående risken för diskriminering menar Joakim Nivre, som är forskare inom AI och professor vid Uppsala universitet, att en av riskerna med ChatGPT:n är att den kan sprida befintliga fördomar och befästa stereotyper i samhället. I och med att svaren som ChatGPT:n ger baseras på i princip all data och alla texter som går att hitta på internet så kan svaren ge uttryck för rasism, extrema åsikter och stereotypa uppfattningar om olika grupper. Vidare menar Nivre att det finns exempel på när folk på olika sätt har fått ChatGPT:n att uttrycka rasistiska åsikter eller till och med kommit med hot mot användaren (Nivre 2023).


Daniel Schatz, doktor i statsvetenskap, menar att en risk med ChatGPT är att systemet förlitar sig på datamängder som endast återspeglar ett avgränsat urval av människor, men som kan leda till beslut som ska tillämpas på alla (Schatz 2023). Även om ChatGPT:n använder sig av många olika datakällor, som ChatGPT:n själv tar upp som ett exempel på lösning på problemet, så är många källor redan stereotypa och diskriminerande. Därför är inte mångfald av källor nödvändigtvis en lösning på problematiken. Vidare menar även Schatz att ChatGPT:n sprider diskriminerande och rasistiska åsikter och att den återspeglar förutfattade meningar, värderingar och majoritetsuppfattningar i samhället som kan förefalla diskriminerande. Robotens svar på sociala och politiska frågor är ofta representativa för de åsikter som har majoritet av röster i en politisk debatt. Enligt rapporter sorterar chatboten bort innehåll som kan vara ”olämpligt” så som mobbning, trakasserier, hatretorik, främjande eller glorifiering av våld, uppmaningar till självskada, ”innehåll avsett att väcka sexuell upphetsning” samt ”innehåll som kan påverka politiska processer”. Schatz menar att detta utgör en del av en bredare trend där stora delar av människors kommunikation lyder under villkor som varken författas av grundlagsberedningar eller författningsdomstolar, utan istället av privata medieföretag. Vidare menar han att detta kan leda till att plattformar som ChatGPT får axla rollen som yttrandefrihetens medlare för bland annat påståenden som kan vara svåra att avgöra om de är sanna eller falska (Schatz 2023).


Förenta nationerna

ChatGPT:ns svar tar upp risken för diskriminering på grund av kön, ras och sexuell läggning. Den nämner inte risken för diskriminering för personer med funktionsnedsättningar. Det gör å andra sidan inte den allmänna deklarationen bokstavligen heller. Dock benämner den ”ingen åtskillnad av något slag”, vilket även ChatGPT:n med fördel kunnat använda sig av för att täcka alla typer av diskrimineringsgrunder.


I en rapport från särskilda rapportören om rättigheter för personer med funktionsnedsättningar från 2022 beskrivs de stora fördelar som kan komma med ökningen av användning av AI för personer med funktionsnedsättning. De nämner bland annat att det kan leda till mer inkludering och jämställdhet inom områden som sysselsättning, utbildning och självständigt liv. Rapporten pekar dock på att fördelarna inte kan komma till nytta förrän de risker som finns med AI har åtgärdats (UN 2021, 1).


Förutom fördelarna nämner de, till skillnad mot ChatGPT:n, de redan välkända diskriminerande effekterna mot personer med funktionsnedsättning som har kommit med AI. Man har till exempel kunnat se att data som beskriver behoven hos personer med funktionsnedsättningar ofta saknas. Eller så är dessa uppgifter så sällsynta att de riskeras att sorteras bort. Vidare finns det en problematik med röstigenkänning som fungerar dåligt för människor som pratar på ett ”ovanligt” sätt, till exempel på grund av afasi eller hörselskada. På liknande sätt är teknologier för ansiktsigenkänning mindre bra för personer med Downs syndrom och personer med synnedsättning (Mårtensson 2022). FN menar i sin rapport att även om medvetenheten ökar kring utmaningarna för mänskliga rättigheter i relation till AI så behövs en mer fokuserad debatt om de specifika utmaningarna med sådan teknik för rättigheterna för personer med funktionsnedsättning (UN 2021, 1).


Europeiska unionens byrå för grundläggande rättigheter

Den europeiska unionens byrå för grundläggande rättigheter, FRA, skrev 2022 en rapport om artificiell intelligens och diskriminering med fokus på partiskhet i algoritmer och hur det fungerar i praktiken. FRAs tester visade bland annat hur lätt algoritmer kan vara partiska över tid och hur detta kan leda till diskriminering (FRA 2022, 3). FRA menar dock att det är viktigt att skilja på partiskhet och diskriminering, vilket chatGPT:n inte tydligt gör i sitt svar. För det första är inte alla typer av partiskhet kopplat till en persons skyddade egenskaper. Om en algoritm till exempel skiljer på människor som har husdjur eller inte så ger den sig inte på egenskaper som för en person anses som skyddade eller känsliga. För det andra, även om en algoritm innehåller partiskhet kring skyddade egenskaper så uppstår inte diskriminering förrän det leder till att beslut fattas, med stöd av algoritmen, som leder till mindre gynnsam behandling, eller är motiverat för det syfte som det används till. Till exempel kan en algoritm som väljer vilken låt du ska lyssna på härnäst ha en könsfördom, men det är tveksamt om valet av en låt i en viss ordning utgör en mindre gynnsam behandling. Dessutom kan en algoritm innehålla partiskhet som är relaterade till skyddade egenskaper men som i sammanhanget är motiverat. Det kan till exempel handla om sortering av ålder för arbeten som har en viss åldersgräns på grund av att arbetet är fysiskt krävande. Därför behöver en algoritm alltid bedömas i det specifika sammanhanget för att analysera om diskriminering verkligen har förekommit (FRA 2022, 22-24).


Sammanfattningsvis är inte ChatGPT:ns svar om riskerna med diskriminering i närheten av att täcka alla risker för diskriminering som kan konstateras om man tittar närmare på problematiken. Däremot är ChatGPT:n medveten om att det finns risk för diskriminering av olika grupper av människor som redan är marginaliserade. För att komma åt problematiken ytterligare behövs bland annat mer kunskap om AI och dess diskriminerande effekter.


Källor

DO. 2022. Transparens, träning och data – Myndigheters användning av AI och automatiserat beslutsfattande samt kunskap om risker för diskriminering. Diskrimineringsombudsmannen. Rapport 2022:1. https://www.do.se/download/18.56175f8817b345aa7651be9/1646982570826/rapport- transparens-traning-och-data.pdf

(Hämtad 2023-05-16)


FRA. 2022. Bias in algorithms - artificial intelligence and discrimination. European union agency för fundamental rights. https://fra.europa.eu/sites/default/files/fra_uploads/fra-2022-bias-in-algorithms_en.pdf (Hämtad 2023-05-16)


Mårtensson, Nicklas. 2022. Varning för AI som diskriminerar människor med funktionsnedsättning. Altinget. 29 mars. https://www.altinget.se/artikel/varning-for-ai-som-diskriminerar-manniskor-med- funktionsnedsattning

(Hämtad 2023-05-16)


Nivre, Joakim. 2023. Tre risker med chat-gpt. Tv Aftonbladet. 23 mars. https://tv.aftonbladet.se/video/354377/experterna-tre-risker-med-chat-gpt (Hämtad 2023-05-16)


Schatz, Daniel. 2023. AI riskerar att göra världens mer woke och fördomsfull. Smedjan. 13 mars.https://timbro.se/smedjan/ai-riskerar-att-gora-varlden-mer-woke-och-fordomsfull/ (Hämtad 2023-05-16)


UDHR. 1948. Universal declaration of human rights. OHCHR. https://www.ohchr.org/en/human-rights/universal-declaration/translations/english (Hämtad 2023-05-16)


UN. 2021. Human Rights Council. Rights of persons with disabilities. Report of the Special Rapporteur on the rights of persons with disabilities. https://www.undocs.org/Home/Mobile?FinalSymbol=A%2FHRC%2F49%2F52&Language= E&DeviceType=Desktop&LangRequested=False

(Hämtad 2023-05-16)




2 visningar0 kommentarer

Senaste inlägg

Visa alla

Comments


bottom of page