Menü Schließen

Über die Gefahren von Künstlicher Intelligenz in Verwaltungen

(Grafik: BSI)

Gene­ra­ti­ve KI-Model­le, ins­be­son­de­re gro­ße Sprach­mo­del­le (LLMs), bie­ten viel­fäl­ti­ge Mög­lich­kei­ten, Tex­te, Bil­der und Musik zu erzeu­gen, indem sie Mus­ter aus Trai­nings­da­ten ler­nen und anwenden.

(Gra­fik: BSI)

Die­se Tech­no­lo­gien kön­nen in öffent­li­chen Ver­wal­tun­gen und in Unter­neh­men zur Effi­zi­enz­stei­ge­rung bei­tra­gen, etwa durch auto­ma­ti­sier­te Tex­terstel­lung oder Daten­ana­ly­se. Aller­dings ber­gen sie auch Risi­ken, beson­ders im Bereich der IT-Sicher­heit, da sie neue Angriffs­flä­chen bieten. 

Das Bun­des­amt für Sicher­heit in der Infor­ma­ti­ons­tech­nik (BSI) hat eine 36-sei­ti­ge Bro­schü­re zu Chan­cen und Risi­ken zusam­men­ge­stellt und kürz­lich aktua­li­siert. Bei­spiels­wei­se könn­ten Kri­mi­nel­le LLMs nut­zen, um glaub­wür­dig wir­ken­de, aber fal­sche Infor­ma­tio­nen zu ver­brei­ten. Daher ist es ent­schei­dend, dass Ent­wick­le­rin­nen und Ent­wick­ler sowie Betrei­ben­de von LLMs eine gründ­li­che Risi­ko­ana­ly­se durch­füh­ren und Sicher­heits­maß­nah­men imple­men­tie­ren. Für einen ver­ant­wor­tungs­vol­len Ein­satz ist es außer­dem wich­tig, dass Nut­zen­de von LLMs über poten­zi­el­le Risi­ken auf­ge­klärt wer­den und die Tech­no­lo­gie kri­tisch im Hin­blick auf Daten­schutz und Sicher­heit bewerten.

Veröffentlicht unter Digitalisierung

Ähnliche Themen