Artiklen er den første ud af to artikler, der omhandler de juridiske problemstillinger ved brug af generativ AI i forbindelse med softwareudvikling. Denne artikel omhandler de regulatoriske transparenskrav i forordningen om kunstig intelligens (AI Act).
De mange og let tilgængelige generative AI-systemer, såsom ChatGPT, Copilot og GitHub, giver mulighed for, at selv ikke-IT-kyndige kan skrive eller få skrevet kode og dermed helt eller delvist erstatte softwareudviklere. Samtidig kan softwareudviklere, der anvender generative AI-systemer til at generere kode, i betydelig grad spare tid og forbedre kodekvaliteten.
At anvende generative AI-systemer til kodeskrivning er dog ikke uden juridiske faldgruber.
Vi ser i denne artikel på hvilke juridiske krav, virksomheder m.fl., der anvender generative AI-systemer til at generere kode, skal være opmærksomme på.
I artikel 50, stk. 2 i forordningen om kunstig intelligens (AI Act) er der indført transparensforpligtelser for AI-systemer, der anvendes til at generere syntetisk lyd-, billed-, video- eller tekstindhold. Bestemmelsen medfører, at materiale af denne art i udgangspunktet skal markeres som værende AI-genereret i et maskinlæsbart format.
Det relevante spørgsmål i denne sammenhæng er, om ”kode” er omfattet af begrebet ”tekstindhold” i artikel 50, stk. 2?
Kommissionen har i sine retningslinjer for general-purpose AI models (”GPAI-models”) besvaret dette spørgsmål bekræftende, dvs. at den anser ”kode” for at udgøre ”tekst”.
At kode i forordningens forstand udgør ”tekst” medfører, at AI-genereret kode skal markeres i et maskinlæsbart format som værende AI-genereret.
Hvornår en digital markering anses for at være tilstrækkelig ”maskinlæsbar” i henhold til AI Act artikel 50, stk. 2 fremgår ikke af forordningen og må derfor afklares i praksis. Det må dog umiddelbart være tilstrækkeligt, hvis markeringen fremgår af kodens metadata eller et digitalt vandmærke (på engelsk ”watermark”), da disse foranstaltninger muliggør, at softwareapplikationer ville kunne identificere AI-genereret kode.
Det er udbyderne, dvs. oftest udviklerne af generative AI-systemer, der skal sikre, at AI-genereret kode markeres som AI-genereret i et maskinlæsbart format. Idriftsætteren, dvs. brugeren af AI-systemet, er således ikke ansvarlig under AI Act, hvis AI-systemet mangler denne markering.
Et andet centralt spørgsmål er, hvorvidt menneskeligt videreudviklet AI-genereret kode fortsat anses for at være ”syntetisk tekstindhold” i artikel 50, stk. 2’s forstand. Det må antages, at AI-genereret kode, der efterfølgende bearbejdes af et menneske, ikke underlægges kravet om at skulle markeres som at være AI-genereret – afhængig dog af graden af menneskelig bearbejdning. Hvor meget menneskelig bearbejdning, der skal til, er dog endnu et uafklaret spørgsmål, der må fastlægges i praksis.
Transparensforpligtelserne i artikel 50, stk. 2 finder anvendelse fra den 2. august 2026. Udbydere af generative AI-systemer, der genererer syntetisk indhold, herunder kode, skal inden denne dato have integreret tekniske funktioner i AI-systemet, der medfører, at det genererede indhold markeres som værende AI-genereret.
Kommissionen vil udarbejde retningslinjer herfor, som må forventes offentliggjort inden bestemmelsen finder anvendelse. Vi følger udviklingen tæt og udgiver en nyhed herom, når retningslinjerne foreligger.
Bird & Bird følger den retlige udvikling af AI tæt og afholder i efteråret en AI Masterclass, der klæder dig på til at håndtere de mange og komplicerede juridiske problemstillinger forbundet med brugen af AI. Du kan læse mere om vores AI Masterclass og tilmelde dig her. Læs mere på vores hjemmeside og LinkedIn herom.