Omnibus prik

Nye anvisninger skal hjælpe AU-medarbejdere med at navigere i AI-værktøjer: ”Brug det ikke til fortrolige data”

Med syv anvisninger til brugen af generativ kunstig intelligens (GAI) vil AU ruste medarbejdere og ledere til at bruge værktøjerne forsvarligt. Det bemærkes blandt andet, at man skal deklarere sin brug af GAI, ligesom medarbejderne opfordres til at bruge almindelige søgemaskiner, når det kan lade sig gøre, da GAI-værktøjer har et markant højere energiforbrug.

Storkontor på fakultetet Natural Sciences. (Arkivfoto) Foto: Lars Kruse/AU Foto

De syv anvisninger til medarbejdere og ledere:

1. Brug ikke GAI til fortrolige eller følsomme data. Du må ikke bruge GAI til forretningshemmeligheder, fortrolig eller følsom data eller ophavsretsligt beskyttet materiale.

2. Husk, at du selv har ansvaret for det indhold, du bruger eller videresender.

3. Deklarér brugen af GAI, så andre kender din metode. Alle GAI-genererede svar skal ledsages af en disclaimer, som fortæller, at svaret er autogenereret og derfor kan være behæftet med fejl.

4. Vær kritisk over for GAI som kilde – den kan tage fejl. GAI kan finde på at opdigte kilder eller fakta, der ikke er korrekte, blot for at give dig et svar.

5. Vær opmærksom på bias i GAI-genereret indhold – den reproducerer ofte skævheder. GAI-genereret materiale kan ubevidst forstærke eksisterende bias og uligheder, da den vælger de mest sandsynlige udfald og dermed følger flertalsopfattelser af tilgængelige data, for eksempel i spørgsmål angående køn, race eller andre demografiske forhold.

6. Brug kun GAI, når du ikke kan bruge almindelige søgemaskiner – det er bedre for klimaet. GAI-værktøjer har et markant højere energiforbrug end andre online søgeværktøjer og apps.

7. Koordinér indkøb af GAI-værktøjer med AU IT og AU Økonomi – af hensyn til økonomi og sikkerhed.

Find uddybning af punkterne her.

Kilde: Medarbejderservice på AU

Det er nu ikke kun de studerende på Aarhus Universitet, som har retningslinjer for brugen af såkaldte generative AI-værktøjer (GAI) som ChatGPT. AU har nemlig netop præsenteret en rettesnor til medarbejdere og ledere for brugen af GAI. Der er tale om syv anvisninger, der skal ruste medarbejderne til at begå sig i GAI-værktøjerne med fokus på sikkerhed, databeskyttelse og kildekritik.

”Medarbejdere på AU bør ikke anvende GAI til fortrolig eller følsom data, ligesom man altid skal kvalitetssikre det GAI-genererede indhold og i øvrigt ikke bruge værktøjerne til opgaver, som almindelige søgemaskiner kan klare lige så godt på et markant lavere energiforbrug”, udtaler vicedirektør for AU IT Peter Bruun Nielsen i en nyhed til medarbejderne.

Peter Bruun Nielsen forklarer, at anvisningerne skal balancere nysgerrighed med omtanke for risici. Anvisningerne er ikke en udtømmende facitliste og skal suppleres af sund fornuft og kritisk sans, lyder det fra vicedirektøren for AU IT. GAI udvikler sig hurtigt, og derfor skal GAI anses som et område, man løbende vil udforske og arbejde med på AU.

Som medarbejder – og studerende – på AU har man adgang til Microsoft Copilot, som er Microsofts pendant til ChatGPT. Værktøjet kan for eksempel tilgås via ens AU-login i Microsoft Edge-browseren.

”De data, du indtaster/uploader i Microsoft Copilot, vil ikke blive gemt og bruges ikke til at træne den bagvedliggende model. Du skal dog hverken bruge Copilot eller andre GAI-værktøjer til fortrolige eller følsomme data”, skriver AU.

I nyheden pointeres det, at de syv GAI-anvisninger er godkendt i administrationsledelsen og alene retter sig mod brugen af de gængse AI-værktøjer i det daglige arbejde, men ikke i forskningssammenhæng. Her kan der være andre hensyn at tage i anvendelsen af AI, lyder det. Senere i år vil administrationsledelsen på baggrund af en risikovurdering komme med konkrete anbefalinger til brugen af forskellige GAI-værktøjer for medarbejdere.

Korrekturlæst af Charlotte Boel