Digcomp 2.2 hjælper borgere til at interagere med AI-systemer på en sikker måde

Den nye DigComp 2.2 -opdatering har til formål at give brugerne grundlæggende viden om AI-systemer. Dette kan hjælpe borgerne med at blive mere selvsikre, kritiske og åbensindede brugere af nutidens teknologier.

Menneskehånd rækker ud efter robothånd

Læs den originale artikel her.

Folk kan sikkert køre til deres ønskede destination ved at følge færdselsregler og aftalte adfærdskodekser uden nødvendigvis at vide, hvordan bilens motor fungerer. Lad os nu anvende den samme analogi, når vi tænker på, hvordan folk interagerer med AI-systemer, såsom digitale assistenter ved hjælp af stemmegenkendelse eller algoritmer, der guider os til den næste film, vi vil se.

Den nye DigComp 2.2 -opdatering har til formål at give brugerne grundlæggende viden om, hvad AI-systemer gør, og hvad de ikke gør, og introducerer nogle grundlæggende principper til, når de interagerer med AI-systemer. Dette kan hjælpe borgerne med at blive mere selvsikkre, kritiske og åbensindede brugere af nutidens teknologier og samtidig bidrage til at afbøde risici i forbindelse med sikkerhed, personoplysninger og privatlivets fred.
 

AI er overalt, men er vi klar over det? 

Mange hverdagsteknologier bruger og integrerer en eller anden form for kunstig intelligens. For eksempel kan AI bruges til at oversætte stemmekommandoer til en konkret handling — som at foretage et opkald eller tænde lyset. Ofte er folk ikke klar over, at sådanne systemer indsamler personoplysninger om brugeren og deres handlinger, og de er ikke klar over, hvordan disse data kan bruges til en lang række formål (f.eks. træning af nye AI-algoritmer, deling af data med tredjeparter). Dette medfører naturligvis en række bekymringer om privatlivets fred og sikkerhed.

DigComp 2.2-opdateringen indeholder et tillæg med mere end 70 eksempler, der kan hjælpe folk med bedre at forstå, hvor og i hvilke situationer i deres hverdag, de kan forvente at støde på AI-systemer. Den giver også praktiske eksempler på, hvordan nye teknologier har gennemsyret vores hverdag. 
 

Hvordan kan DigComp 2.2 hjælpe os med at forstå AI-systemer?
 
Denne seneste opdatering af frameworket giver tre typer eksempler for at hjælpe med at forstå, hvad AI-systemer gør — og hvad de ikke gør: 

* Videnseksempler fokuserer på fakta, principper og praksis. At engagere sig i AI-systemer på en bekymringsfri og sikker måde betyder at være opmærksom på, hvordan søgemaskiner, sociale medier og indholdsplatforme bruger AI-algoritmer til at generere svar, der er tilpasset den enkelte brugers præferencer (dette nummer hjælper dig med at finde det i publikationen: AI 03, s. 78).
* Eksempler på færdigheder, der fokuserer på evnen til at anvende viden, når de interagerer med AI-systemer. Dette betyder at vide, hvordan man ændrer brugerkonfigurationer (f.eks. i apps, software, digitale platforme) for at aktivere, forhindre eller moderere AI-systemet i at spore, indsamle eller analysere data (f.eks. slukke for sporing af placering på vores telefoner osv.). (AI 35, s. 80). 
* Holdningseksempler er knyttet til menneskelig handling og kontrol og angiver en disposition eller en tankegang til at handle. Dette betyder at være åben for AI-systemer, der støtter mennesker i at træffe informerede beslutninger i overensstemmelse med deres mål (f.eks. brugere, der aktivt beslutter, om de vil handle på grundlag af en anbefaling eller ej).

Alle eksempler er relateret til de eksisterende DigComp-kompetencer med en idé om, at de vil hjælpe undervisere og uddannelsesudbydere med at opdatere deres uddannelsesindhold og bedre illustrere anvendelsen og integrationen af nye teknologier i hverdagen. 
 

Opnå tillid til at bekæmpe falske nyheder og desinformation

De nye temaer i opdateringen berører aktuelle fænomener, der ofte forstærker desinformation på sociale medieplatforme såsom filterbobler (en bias forårsaget af en algoritme, der begrænser de oplysninger, en bruger ser baseret på deres tidligere aktiviteter) og ekkokamre (en situation, hvor brugerne modtager onlineoplysninger, hvilket styrker deres eksisterende synspunkter uden at støde på modstridende perspektiver). Eksempler illustrerer også deepfakes og andre automatiserede former for AI- genereret indhold. 

De fokuserer også på bekymringer om privatlivets fred, når de interagerer med AI-systemer, der kan dele personoplysninger med tredjeparter og blotlægge de grundlæggende spørgsmål, vi skal stille, før vi aktiverer ansigtsgenkendelsessoftware eller den digitale assistent på vores telefon. 

DigComp 2.2-eksemplerne angående mennesker, der interagerer med AI-systemer, har til formål at male et billede af dagens verden og hjælpe folk med at engagere sig trygt, kritisk og sikkert med hverdagens teknologier, især dem, der drives af AI. Et andet mål er at sætte borgerne i stand til i højere grad at kontrollere deres egen livs lange læring for at holde sig informeret om AI-systemer og det, vi kalder "datafication" af alle aspekter af vores liv. Sidst, men ikke mindst, er et af målene at hjælpe folk med at navigere i etiske spørgsmål i forbindelse med digital praksis — f.eks. om menneskelig autonomi, der ligger til grund for mange af EU's værdier. Disse mål understøtter også kommissionens handlingsplan for digital uddannelse, der har til formål at forbedre borgernes digitale færdigheder og kompetencer i forbindelse med den digitale omstilling. 

Læs hele rapporten her

Andet kommende DEAP-arbejde omfatter: 

* Retningslinjer for undervisere om etisk håndtering af kunstig intelligens og data.
* vedtagelse af et forslag til Rådets henstilling om forbedring af udbuddet af digitale færdigheder inden for uddannelse (LINK)

 
Om forfatteren
 
Dr. Vuorikari er hovedforsker for DigComp 2.2. Hendes arbejde fokuserer på at udvikle en bedre forståelse af viden, færdigheder og holdninger, der hjælper borgerne med at engagere sig trygt, kritisk og sikkert i digitale teknologier, herunder AI-systemer. Hun blev medlem af Europa-Kommissionens Fælles Forskningscenter (JRC) i juli 2013 indtil august 2022. Hun har grader i uddannelse (M.Ed i 1998 i Finland), hypermedia (DEA i 1999 i Frankrig), og hun fik sin ph.d. i 2009.
 

Om JRC

Det Fælles Forskningscenter (Joint Research Center) er Kommissionens videnskabs- og videnstjeneste. FFC får forskere til at udføre forskning med henblik på at yde uafhængig videnskabelig rådgivning og støtte til EU. EU's sciensce hub er JRC's vigtigste websted. 

Logo: Medfinansieret af Den Europæiske Union