Menu Close

Künstliche Intelligenz: Konzepte und Technologien

Der Begriff „Künst­li­che Intel­li­genz“ (KI) steht seit meh­re­ren Jah­ren auf­grund zahl­rei­cher tech­ni­scher Fort­schrit­te und damit ein­her­ge­hen­der, greif­ba­rer Ent­wick­lun­gen, etwa im Be­reich des auto­no­men Fah­rens oder der auto­ma­ti­schen Gesichts­er­ken­nung, im Fokus der gesell­schaft­li­chen Auf­merk­sam­keit.

Die­ser Bei­trag ist ein Aus­zug aus der „Gut­ach­ter­li­chen Stel­lung­nah­me zu den Aus­wir­kun­gen künst­li­cher Sys­te­me und der Digi­ta­li­sie­rung auf das kom­mu­na­le Leben in Rhein­land-Pfalz 2050“. Die gesam­te Stu­die steht unter ea​-rlp​.de/​e​a​r​l​p​d​i​g​i​t​a​l​2​019 zum Down­load als PDF (88 Sei­ten, 18 MB) bereit.

Aus­zug 1 – Künst­li­che Intel­li­genz: Kon­zep­te und Tech­no­lo­gien
Aus­zug 2 – Fünf Bei­spie­le: Chan­cen durch KI in Land­wirt­schaft, Gesund­heit, Ehren­amt, Tou­ris­mus und Mobi­li­tät in RLP
Aus­zug 3 – Sze­na­ri­en für Rhein­land-Pfalz: Zwi­schen Dys­to­pie und Uto­pie

Zusam­men­fas­sung

Autorin­nen und Autoren: Mat­thi­as Berg (Fraun­ho­fer IESE), Chris­toph Giehl (Stadt­so­zio­lo­gie TU Kai­sers­lau­tern), Mat­thi­as Koch (Fraun­ho­fer IESE), Mar­tin Mem­mel (DFKI), Annet­te Spel­ler­berg (Lei­tung; Stadt­so­zio­lo­gie TU Kai­sers­lau­tern), Ricar­da Wal­ter (Stadt­so­zio­lo­gie TU Kai­sers­lau­tern); unter Mit­ar­beit von: Stef­fen Hess, Andre­as Jed­litsch­ka, Micha­el Kla­es, Die­ter Ler­ner, Adam Tren­do­wicz (Fraun­ho­fer IESE).

The­men wie die wirt­schaft­li­che Rele­vanz von KI, ihre Bedeu­tung für den (Wirt­schafts-) Stand­ort Deutsch­land, ethi­sche Fra­ge­stel­lun­gen und durch KI-Anwen­dun­gen (mit-)verursachte gesell­schaft­li­che Ver­än­de­run­gen wer­den in viel­fältigen Foren und Medi­en dis­ku­tiert. Eine fun­dier­te Defi­ni­ti­on des Begriffs „Künst­li­che In­telligenz“ und eine Ein­ord­nung der Fähig­kei­ten von KI-Sys­te­men, etwa anhand der Ur­sprünge und bis­he­ri­gen Ent­wick­lun­gen in die­ser ver­gleichs­wei­se neu­en Dis­zi­plin der In­formatik, fin­det jedoch nur sel­ten statt. Dies ist jedoch von essen­zi­el­ler Bedeu­tung, um den aktu­el­len Stand der Dis­kus­si­on ver­ste­hen und zukünf­tig mög­li­che Sze­na­ri­os einschät­zen zu kön­nen. Im Fol­gen­den wird daher zunächst eine kur­ze Ein­füh­rung des Begriffs „Künst­li­che Intel­li­genz“ sowie ein Über­blick über sei­ne Ent­ste­hungs­ge­schich­te gege­ben. Dar­an schließt sich ein Über­blick über die wich­tigs­ten Kon­zep­ten und Tech­no­lo­gien an, die aktu­ell im Kon­text der KI rele­vant sind.

Definition und kurze Historie

Unter dem Begriff „Künst­li­che Intel­li­genz“ wur­den ins­be­son­de­re im Kon­text der media­len Bericht­erstat­tung der letz­ten Jah­re zahl­rei­che The­men und Tech­no­lo­gien sub­sum­miert. Es gibt zwar kei­ne ein­heit­li­che Defi­ni­ti­on des Begriffs, aber den­noch wird er, durch­aus auch oft in zwei­fel­haf­ter Wei­se, ver­wen­det, um etwa die Popu­la­ri­tät des The­mas zum Ge­nerieren von Auf­merk­sam­keit zu nut­zen.

(Foto: Unsplash)

Es ist nicht Ziel die­ses Gut­ach­tens, eine eige­ne Defi­ni­ti­on des Begriffs vor­zu­ge­ben, viel­mehr wird ver­sucht wir, ihn adäquat ein­zu­schrän­ken und die zur Beur­tei­lung sei­ner Ver­wendung not­wen­di­gen Infor­ma­tio­nen zu ver­mit­teln.

„Künst­li­che Intel­li­genz“ ist zum einen eine Teil­dis­zi­plin der Infor­ma­tik, zum ande­ren aber auch ein „Sam­mel­be­griff für die­je­ni­gen Tech­no­lo­gien und ihre Anwen­dun­gen, die durch digi­ta­le Metho­den auf der Grund­la­ge poten­zi­ell sehr gro­ßer und hete­ro­ge­ner Daten­sät­ze in einem kom­ple­xen und die mensch­li­che Intel­li­genz gleich­sam nach­ah­men­den maschi­nellen Ver­ar­bei­tungs­pro­zess ein Ergeb­nis ermit­teln, das ggf. auto­ma­ti­siert zur Anwen­dung gebracht wird“ (Daten­ethik­kom­mis­si­on KI 2018, 1).

Zu ent­schei­den, ob eine Tech­no­lo­gie oder Anwen­dung „intel­li­gen­tes Ver­hal­ten“ zeigt, hängt unmit­tel­bar mit der Defi­ni­ti­on des Intel­li­genz­be­grif­fes zusam­men. Um sich intel­li­gent zu ver­hal­ten, sind in unter­schied­li­chen Antei­len bestimm­te Kern­fä­hig­kei­ten not­wen­dig:

Wahr­neh­men, Ver­ste­hen, Pla­nen, Han­deln und Ler­nen (Bur­chardt 2018, 13). Entspre­chend gibt es auch ver­schie­de­ne Aus­prä­gun­gen „Künst­li­cher Intel­li­genz“. Man unterschei­det daher auch zwi­schen „schwa­cher KI“ und „star­ker KI“. Schwa­che KI dient als Sammel­begriff für Tech­no­lo­gien mit star­kem Anwen­dungs­be­zug und dem Ziel einer sehr konkre­ten Lösung in einem klar defi­nier­ten, vor­ge­ge­be­nen Pro­blem­kon­text. Alle heu­ti­gen KI-Sys­­te­me fal­len in die Kate­go­rie die­ser schwa­chen KI. Die star­ke KI hat im Gegen­satz dazu ein sehr viel wei­ter­ge­hen­des und ambi­tio­nier­te­res Ziel: Sie ver­sucht, die voll­stän­di­gen in­tellektuellen Fer­tig­kei­ten von Men­schen unab­hän­gig von einem kon­kre­ten Pro­blem­kon­text zu imi­tie­ren oder gar zu über­tref­fen.

Dabei ist die Idee intel­li­gen­ter Maschi­nen kei­ne neue, und „intel­li­gen­te“ Maschi­nen wur­den bereits in der Ära vor dem Auf­kom­men der Com­pu­ter mit­hil­fe von klas­si­schen mechani­schen Ansät­zen in oft spie­le­ri­scher Art und Wei­se umge­setzt. Eine völ­lig neue Dimen­si­on erhielt das The­ma jedoch mit dem Auf­kom­men der Digi­tal­rech­ner. Mit die­sen stand erst­mals eine adäqua­te Tech­no­lo­gie zur Simu­la­ti­on „bere­chen­ba­rer Aspek­te“ der Intel­li­genz zur Ver­fü­gung. Es wur­den spe­zi­el­le Pro­gram­mier­spra­chen zur Model­lie­rung kogni­ti­ver Pro­zes­se ent­wi­ckelt, mit denen die Simu­la­ti­on des eige­nen intel­li­gen­ten Ver­hal­tens mög­lich wur­de.

Als Geburts­stun­de der KI gilt die im Jahr 1956 von den US-ame­ri­ka­ni­schen For­schern John McCar­thy, Mar­vin Min­sky, Natha­ni­el Roches­ter und Clau­de Shan­non am Dart­mouth Col­le­ge initi­ier­te Dart­mouth-Kon­fe­renz in Hano­ver, New Hamp­shire, USA. Zu den Kern­aussagen die­ser Kon­fe­renz gehö­ren:

  1. Sämt­li­che Eigen­schaf­ten der Intel­li­genz las­sen sich in Form abs­trak­ter Model­le prä­zi­se beschrei­ben.
  2. Denk­pro­zes­se sind nicht aus­schließ­lich dem mensch­li­chen Gehirn vor­be­hal­ten.
  3. Com­pu­ter sind das bes­te außer­mensch­li­che Instru­ment für die­se Denk­pro­zes­se.

In den dar­auf­fol­gen­den Jah­ren unter­lag die Popu­la­ri­tät des The­mas „Künst­li­che Intelli­genz“ immer wie­der grö­ße­ren Schwan­kun­gen. Der bis etwa 1969 andau­ern­den Pha­se des Auf­bruchs und der Begeis­te­rung folg­te etwa eine durch fun­da­men­ta­le Schwie­rig­kei­ten spe­zi­ell auf­grund feh­len­den Wis­sens von Pro­gram­men über Anwen­dungs­ge­bie­te gekenn­zeichnete Pha­se der Ernüch­te­rung. In den 1980er Jah­ren wie­der­um gab es zahl­rei­che kom­mer­zi­el­le Erfol­ge beim Ein­satz von Exper­ten­sys­te­men in der Indus­trie; es wur­den KI­-Abtei­lun­gen in vie­len grö­ße­ren Fir­men gegrün­det, und Kl-basier­te Pro­jek­te wur­den im gro­ßen Stil geför­dert. In die­se Pha­se fiel auch die Grün­dung des Deut­schen Forschungszent­rums für Künst­li­che Intel­li­genz (DFKI) im Jahr 1988.

Nach einer Pha­se der Kon­so­li­die­rung hat das The­ma „Künst­li­che Intel­li­genz“ nun auch für Poli­tik und Ent­schei­dungs­trä­ger gro­ße Bedeu­tung erlangt, haupt­säch­lich bedingt durch die gro­ßen und sicht­ba­ren Fort­schrit­te im Bereich Deep Lear­ning und durch die Durch­dringung aller Lebens­be­rei­che mit digi­ta­len Tech­no­lo­gien.

Konzepte und Technologien

Die Ent­wick­lung neu­er Tech­no­lo­gien erfolgt nicht auf linea­ren, fest­ge­leg­ten Pfa­den, son­dern zeich­net sich durch Höhen und Tie­fen aus, durch Zei­ten des Auf­bruchs und der Ent­täuschung. Den­noch las­sen sich neue, auf­kom­men­de Tech­no­lo­gien ein­ord­nen, um deren Zustand und Aus­wir­kun­gen zu begrei­fen. Das Markt­for­schungs­un­ter­neh­men Gart­ner ver­öf­fent­licht Jahr für Jahr sei­nen soge­nann­ten „Hype Cycle“, eine Illus­tra­ti­on, die Technolo­gien auf einer Kur­ve von über­höh­ten Erwar­tun­gen durch ein Tal der Ent­täu­schun­gen zu einem Pla­teau der Pro­duk­ti­vi­tät ein­zeich­net.

(Quel­le: Gart­ner)

Die Abbil­dung zeigt den „Hype Cycle“ für das Jahr 2018. Es ist erkenn­bar, dass Künst­li­che Intel­li­genz und ver­wand­te Tech­no­lo­gien hohen Erwar­tun­gen aus­ge­setzt sind. Im folgen­den Abschnitt wer­den nicht alle aktu­el­len Tech­no­lo­gien beschrei­ben, die im Kon­text von KI rele­vant sind, son­dern es wird viel­mehr eine Aus­wahl an Tech­no­lo­gien kurz erläu­tert. Hier­mit wer­den die Grund­la­gen für die spä­te­ren Aus­füh­run­gen zu Künst­li­cher Intel­li­genz und ihren denk­ba­ren Aus­wir­kun­gen in Kom­mu­nen gelegt.

Big Data

Der Begriff Big Data ist ein Sam­mel­be­griff für die Ver­ar­bei­tung von Mas­sen­da­ten. Kenn­zeichnende Merk­ma­le von Big Data sind die drei Dimen­sio­nen Volu­me (zu ver­ar­bei­ten­de Daten­men­ge), Velo­ci­ty (Geschwin­dig­keit, mit der Daten gene­riert und ver­ar­bei­tet wer­den) und Varie­ty (Viel­falt an zu ver­ar­bei­ten­den Daten­ty­pen wie Zah­len, Tex­te oder Bil­der).

Auf­grund der rie­si­gen Daten­men­gen und der gro­ßen Geschwin­dig­keit, mit der die­se Daten gene­riert wer­den, ist eine Ver­ar­bei­tung mit her­kömm­li­chen sequen­ti­el­len Metho­den der Daten­ver­ar­bei­tung nicht mehr mög­lich. Statt­des­sen ist eine Par­al­lel­ver­ar­bei­tung notwen­dig. Hier­zu wer­den die Daten zunächst par­ti­tio­niert und auf einem Ver­bund (Clus­ter) von Rech­nern (Kno­ten) ver­teilt. Alle Rech­ner des Ver­bun­des ver­ar­bei­ten anschlie­ßend zeit­gleich die ihnen zuge­teil­ten Daten­par­ti­tio­nen. Abschlie­ßend wird das Gesamt­ergeb­nis aus den Ein­zel­er­geb­nis­sen jedes Kno­tens berech­net.

Mit die­sem Ansatz der Par­al­lel­ver­ar­bei­tung ist es mög­lich, gro­ße Daten­men­gen mit hoher Geschwin­dig­keit zu ver­ar­bei­ten. Die Anzahl der Kno­ten in einem Ver­bund kann hier­bei an die Daten­men­ge und die erfor­der­li­che Ver­ar­bei­tungs­ge­schwin­dig­keit ange­passt wer­den. Für klei­ne­re Unter­neh­men kön­nen schon eini­ge weni­ge Kno­ten aus­rei­chen. Die Clus­ter gro­ßer digi­ta­li­sier­ter Unter­neh­men bestehen hin­ge­gen aus Hun­der­ten oder gar Tausen­den von Kno­ten. Ein Clus­ter für Big Data kann lokal in einem Unter­neh­men (on Pre­mi­se) oder auch mit gerin­gem Auf­wand in einer Cloud-Umge­bung rea­li­siert wer­den.

Soft­ware­sys­te­me für Big Data las­sen sich grob in zwei Klas­sen unter­tei­len: Sys­te­me für die Spei­che­rung (NoS­QL-Daten­ban­ken) und Sys­te­me zur schnel­len Ver­ar­bei­tung und Ana­ly­se gro­ßer Daten­men­gen. Ergän­zend wer­den spe­zia­li­sier­te Sys­te­me z.B. für den Im­port gro­ßer Daten­men­gen oder für Daten­trans­for­ma­tio­nen ein­ge­setzt.

Data Mining (Probabilistik, Statistik)

Will man Erkennt­nis­se über Mus­ter oder Struk­tu­ren in gro­ßen oder sogar sehr gro­ßen Daten­men­gen (Stich­wort „Big Data“) gewin­nen, so ist dies mit simp­len manu­el­len Analy­sen nicht mög­lich. Auch Visua­li­sie­run­gen in Form von Dia­gram­men oder Schau­bil­dern sto­ßen schnell an Ihre Gren­zen. Eine Daten­ana­ly­se muss somit wenigs­tens teil­wei­se au­tomatisiert sein. Die For­schungs- bzw. Anwen­dungs­ge­bie­te „Know­ledge Dis­co­very in Data­ba­ses“ (KDD) sowie „Data Mining“ beschäf­ti­gen sich mit Metho­den, intel­li­gen­te und rech­ner­ge­stütz­te Ver­fah­ren für die Daten­ana­ly­se zu ent­wi­ckeln. Wit­ten und Frank (2011) defi­nie­ren den Begriff „Data Mining“ wie folgt: „Beim Data Mining geht es dar­um, Model­le zu bil­den, die Regu­la­ri­tä­ten und Zusam­men­hän­ge in gro­ßen Daten­men­gen erklä­ren.“

Typi­sche Auf­ga­ben im Data Mining sind etwa Klas­si­fi­ka­ti­on, Seg­men­tie­rung, Clus­te­ring, Vor­her­sa­ge, Trend­ana­ly­se oder Abhän­gig­keits- bzw. Asso­zia­ti­ons­ana­ly­se. Sie wer­den in einer Viel­zahl an Bran­chen ein­ge­setzt, etwa im Direkt­mar­ke­ting und in der Finanz- und Ver­si­che­rungs­wirt­schaft.

Beim Data Mining han­delt es sich stets um einen Pro­zess, in dem Mensch und Maschi­ne inter­agie­ren und bei dem Exper­ten­wis­sen über die Anwen­dungs­do­mä­ne und mög­li­che Tech­no­lo­gien uner­läss­lich ist. Data Mining Tools assis­tie­ren dem Men­schen bei der Da­tenanalyse, kön­nen die­sen jedoch nicht erset­zen. Der Mensch wählt zunächst Daten aus, bestimmt not­wen­di­ge Schrit­te für eine Vor­ver­ar­bei­tung die­ser Daten und wählt und para­metrisiert Metho­den. Hier ste­hen zahl­rei­che Ver­fah­ren bzw. Tech­no­lo­gien zur Ver­fü­gung, z.B. klas­si­sche Sta­tis­tik, Ent­schei­dungs­bäu­me, Bayes-Klas­si­fi­ka­to­ren oder Künst­li­che Neu­ro­na­le Net­ze. Nach­dem die Maschi­ne Model­le vor­schlägt und quan­ti­ta­ti­ve Bewertun­gen erstellt hat, ana­ly­siert der Mensch Qua­li­tät und Nütz­lich­keit und akzep­tiert oder ver­wirft die Model­le. Dabei wer­den ver­schie­de­ne Qua­li­täts­kri­te­ri­en für Wis­sen wie Korrekt­heit, All­ge­mein­heit, Nütz­lich­keit, Ver­ständ­lich­keit oder Neu­heit her­an­ge­zo­gen.

Machine Learning

(Foto: Unsplash)

Anstatt wie bei wis­sens­ba­sier­ten Sys­te­men das benö­tig­te Wis­sen in einem manu­el­len o­der nur teil­au­to­ma­ti­sier­ten Pro­zess zur Ver­fü­gung zu stel­len, ver­folgt das maschi­nel­le Ler­nen das Ziel, selbst­stän­dig basie­rend auf zur Ver­fü­gung gestell­ten Daten Mus­ter zu er­kennen bzw. Model­le zu ler­nen. Machi­ne Lear­ning ist eine Schlüs­sel­tech­no­lo­gie der Künst­li­chen Intel­li­genz und ein Ober­be­griff für zahl­rei­che Ver­fah­ren.

Man unter­schei­det dabei grund­sätz­lich zwi­schen über­wach­tem und unüber­wach­tem Ler­nen. Im ers­te­ren Fall kennt das Sys­tem bereits die kor­rek­ten Ant­wor­ten bzw. Hypo­the­sen und ver­sucht mit­hil­fe die­ser Infor­ma­tio­nen ein Modell zu ler­nen. Beim unüber­wach­ten Ler­nen ist dage­gen noch nicht bekannt, was gelernt wer­den soll.

Eine wei­te­re pro­mi­nen­te Klas­se an Ver­fah­ren wird als bestär­ken­des oder ver­stär­ken­des Ler­nen (rein­for­ce­ment lear­ning) bezeich­net. Hier­bei reagiert ein Sys­tem auf posi­ti­ve Rück­meldungen bzw. Beloh­nun­gen und erlernt so selbst­stän­dig ein Modell mit dem Ziel, mög­lichst vie­le Beloh­nun­gen zu erhal­ten.

Deep Learning

Der Begriff Deep Lear­ning bezeich­net eine spe­zi­el­le Klas­se von Opti­mie­rungs­me­tho­den von Künst­li­chen Neu­ro­na­len Net­zen (KNN), einem Teil­be­reich des Machi­ne Lear­nings. Sie wer­den oft auch als „Deep Neural Net­works“ bezeich­net und ste­hen seit eini­gen Jah­ren bei­na­he stell­ver­tre­tend für die zuneh­mend grö­ße­re Bedeu­tung des The­mas Künst­li­che Intel­li­genz im öffent­li­chen Dis­kurs.

Obwohl die beim Deep Lear­ning ver­wen­de­ten Ver­fah­ren nicht neu sind, wur­de mit der immer grö­ßer wer­den­den Men­ge an zur Ver­fü­gung ste­hen­den Daten sowie der enor­men Leis­tungs­stei­ge­rung bei der Ver­ar­bei­tung die­ser Daten der Stand der Tech­nik in zahlrei­chen Anwen­dungs­be­rei­chen wie etwa Bil­d­er­ken­nung und Sprach­er­ken­nung dra­ma­tisch ver­bes­sert (LeCun et al. 2015).

Die Lern­me­tho­den sol­cher Künst­li­chen Neu­ro­na­len Net­ze rich­ten sich zwar nach der Funk­ti­ons­wei­se des mensch­li­chen Gehirns und resul­tie­ren in der Fähig­keit zu eige­nen Pro­gno­sen oder Ent­schei­dun­gen, aller­dings beru­hen die­se Vor­ge­hens­wei­sen auf Erkennt­nissen der Hirn­for­schung aus den 1960er Jah­ren (Thieli­cke 2018). Es ist davon auszuge­hen, das mit dem zuneh­men­den Ver­ständ­nis der Abläu­fe im mensch­li­chen Gehirn auch völ­lig neue Ver­fah­ren in der Künst­li­chen Intel­li­genz ent­wi­ckelt wer­den, die zum Teil auch auf völ­lig neu­en Com­pu­ter­ar­chi­tek­tu­ren beru­hen.

Autonomisierung bzw. Autonome Systeme

Auto­no­me Sys­te­me haben die Fähig­keit, kom­ple­xe Auf­ga­ben eigen­stän­dig zu bewäl­ti­gen. Bei­spie­le sind auto­no­me Fahr- bzw. Flug­zeu­ge und auto­no­me Robo­ter. Wesent­li­cher Ge­sichtspunkt dabei ist die Unab­hän­gig­keit der Dienst­er­brin­gung vom mensch­li­chen Bedie­ner. Im Bereich der auto­no­men Fahr­zeu­ge unter­schei­det man sechs Auto­no­mie­stu­fen (0: Selbst­fah­rer, 1: Fah­rer­as­sis­tenz, 2: Teil­au­to­ma­ti­sie­rung, 3: Bedin­gungs­au­to­ma­ti­sie­rung, 4: Hoch­au­to­ma­ti­sie­rung, 5: Voll­au­to­ma­ti­sie­rung). In den Stu­fen 0–2 wird die Umge­bung vom mensch­li­chen Fah­rer kon­trol­liert, in den Stu­fen 3–5 vom Sys­tem. Auf dem deut­schen Markt befin­den sich Sys­te­me der Stu­fe 2, wobei in den USA auch ein­ge­schränkt Stu­fe 3 (z.B. bei Tes­la) ein­ge­setzt wird. Pro­to­ty­pen in Stu­fe 5 wer­den der­zeit von allen gro­ßen Anbie­tern und Zulie­fe­rern getes­tet.

Wei­ter­ge­hen­de Auto­ma­ti­sie­rung setzt neben Pro­zess­wis­sen ein zuneh­men­des Verständ­nis des Kon­texts, z. B. durch Sen­so­rik oder gelie­fer­te Daten, eine ana­ly­ti­sche Betrach­tung der Situa­ti­on sowie eine ange­brach­te Reak­ti­on vor­aus. Ein auto­no­mes Fahr­zeug muss also neben dem Wis­sen dar­über, wie Fah­ren funk­tio­niert, auch „ver­ste­hen“, wie es die Fahr­wei­se an eine sich ver­än­dern­de (oft unbe­kann­te) Umwelt anzu­pas­sen hat. Die Si­cherstellung einer ange­brach­ten Reak­ti­on ist eine der gro­ßen Her­aus­for­de­run­gen, da so­wohl tech­ni­sche (algo­rith­mi­sche) als auch recht­li­che und ethi­sche Aspek­te zu betrach­ten sind. Ins­be­son­de­re die Ver­wen­dung der aktu­ell stark pro­pa­gier­ten Ansät­ze aus dem ma­schinellen Ler­nen sind aus Sicht der funk­tio­na­len Sicher­heits­be­ur­tei­lung schwie­rig zu be­werten, da sie nicht deter­mi­nis­tisch sind, was bedeu­tet, dass sie bei glei­chem Ausgangs­punkt nicht immer zum sel­ben Ergeb­nis füh­ren. Aus ethi­scher Sicht befin­den wir uns im Fal­le eines unaus­weich­li­chen Unfalls in der Situa­ti­on, dass, im Gegen­satz zum Men­schen, der eine unbe­wuss­te Ent­schei­dung tref­fen wird, die in kei­ner Wei­se „opti­mal“ im Sin­ne des Scha­dens sein muss, die Maschi­ne eine „bewuss­te Ent­schei­dung“ tref­fen müs­sen wird. Die Ethik­kom­mis­si­on hat einen Bericht mit 20 The­sen zum auto­ma­ti­sier­ten Fah­ren vorge­legt, der als Leit­li­nie für zukünf­ti­ge Sys­te­me gel­ten soll.

Robotik

Das inter­dis­zi­pli­nä­re Feld der Robo­tik beschäf­tigt sich mit der Kon­zep­ti­on, der Konstruk­tion, dem Betrieb und dem Ein­satz von Robo­tern sowie Com­pu­ter­sys­te­men für deren Steue­rung. Robo­tik umfasst Ansät­ze aus zahl­rei­chen Fel­dern der Ingenieurwissenschaf­ten und Wis­sen­schaf­ten wie Maschi­nen­bau, Elek­tro­tech­nik, Infor­ma­ti­ons­tech­nik, Informa­tik (ins­be­son­de­re Künst­li­che Intel­li­genz), Mensch-Maschi­ne-Inter­ak­ti­on, Psy­cho­lo­gie, So­ziologie und Phi­lo­so­phie.

(Foto: Unsplash)

„Robo­ter“ bezeich­net dabei eine übli­cher­wei­se von einem Com­pu­ter pro­gram­mier­te Ma­schine, die in der Lage ist, eine kom­ple­xe Rei­he von Aktio­nen auto­ma­tisch aus­zu­füh­ren. Dabei kön­nen auto­no­me und semi­au­to­no­me Robo­ter unter­schie­den wer­den. Robo­ter gibt es in unter­schied­lichs­ten For­men, von Huma­no­iden über Indus­trie­ro­bo­ter und medizini­sche Ope­ra­ti­ons­ro­bo­ter bis hin zu Droh­nen oder mikro­sko­pi­schen Nano-Robo­tern. Sie stel­len eine spe­zi­el­le Form auto­no­mer Sys­te­me dar, die mit ihrer Umwelt phy­sisch intera­gieren kön­nen.

Auch wenn in den letz­ten Jah­ren enor­me Fort­schrit­te etwa im Bereich von huma­no­iden Robo­tern und Lauf­ro­bo­tern erzielt wer­den konn­ten, sind die Sys­te­me heu­te immer noch sehr limi­tiert. So kann bei­spiels­wei­se der von Hon­da ent­wi­ckel­te Robo­ter ASIMO zwar mit Men­schen in gewis­sem Maße inter­agie­ren, aller­dings nur in begrenz­tem Umfang und weit­gehend beschränkt auf vor­de­fi­nier­te Sze­na­ri­en (Hiro­se und Oga­wa 2007). Die kom­ple­xe Inter­ak­ti­on zwi­schen Robo­tern und Men­schen in offe­nen, nicht vor­de­fi­nier­ten Umgebun­gen ist noch heu­te ein unge­lös­tes Pro­blem und The­ma zahl­rei­cher Forschungsbemühun­gen auf dem Gebiet der Künst­li­chen Intel­li­genz und der Mensch-Robo­ter-Inter­ak­ti­on (Schwartz et al. 2016).

Im Bereich Indus­trie 4.0 über­neh­men Maschi­nen (Robo­ter wie Soft­ware) immer mehr Auf­gaben, die bis­her von Men­schen durch­ge­führt wur­den. Dabei wer­den nicht nur rei­ne Pro­duktionsaufgaben von Maschi­nen über­nom­men, son­dern auch Pla­nung und Entscheidun­gen. Wenn frü­her die Maschi­ne als ein­fa­cher Ver­rich­ter ange­se­hen wur­de, wird sie heu­te schon als kol­la­bo­ra­ti­ver Co-Worker ver­stan­den. Das heißt, sie arbei­tet gleich­be­rech­tigt mit. Die Aus­wir­kun­gen auf die Gesell­schaft sind unklar und rei­chen von der dys­to­pi­schen Vor­stel­lung, dass die meis­ten Arbeits­plät­ze weg­fal­len, zu eher beru­hi­gen­den Sze­na­ri­en, wie sie u.a. vom McK­in­sey Glo­bal Insti­tu­te vor­her­ge­sagt wer­den, nach des­sen Mei­nung die Auto­ma­ti­sie­rung mehr Stel­len ver­än­dern als weg­ra­tio­na­li­sie­ren wird.

Plattformökonomie

Digi­ta­le Geschäfts­mo­del­le spie­len eine zuneh­mend wich­ti­ge­re Rol­le auf den Welt­märk­ten. Gegen­über tra­di­tio­nel­ler Wert­schöp­fung, wel­che auf der Her­stel­lung von Pro­duk­ten und deren Ver­trieb an Kun­den basiert, set­zen heu­ti­ge digi­ta­le Geschäfts­mo­del­le zumeist auf eine platt­form­ba­sier­te Wert­schöp­fung. Bereits im Jahr 2016 bestä­tig­ten 81 % der Mana­ger einer von Accen­ture durch­ge­führ­ten Stu­die die zen­tra­le Bedeu­tung platt­form­ba­sier­ter Geschäfts­mo­del­le für ihre Wachs­tums­stra­te­gie inner­halb der nächs­ten drei Jahr. Eine auf Platt­for­men basie­ren­de Stra­te­gie zeich­net aus, dass sie, anders als eine rei­ne Pro­dukt­stra­te­gie, auf ein Öko­sys­tem setzt, das die Gene­rie­rung von Pro­dukt- oder Dienst­leistungsinnovationen und Syn­er­gien zwi­schen die­sen Ange­bo­ten poten­zi­ell vie­ler betei­ligter Orga­ni­sa­tio­nen und der Platt­form ermög­licht. Die Kern­idee einer Platt­form ist, dass Part­ner Ange­bo­te nut­zen und selbst Bei­trä­ge bereit­stel­len, wodurch die Wert­schöp­fung rea­li­siert wird.

(Foto: Schwar­ze)

Pro­mi­nen­te Bei­spie­le für der­ar­ti­ge Kon­zep­te sind vor allem im Bereich der sozia­len Medi­en zu fin­den, wie Face­book und Lin­kedln, aber auch eBay und Ama­zon im Ein­zel­han­del oder Net­flix und Spo­ti­fy in der Unter­hal­tungs­bran­che. Anhand der Musikin­dustrie lässt sich illus­trie­ren, wel­che dis­rup­ti­ven Ver­än­de­run­gen durch Digi­ta­li­sie­rung und den Wan­del hin zu Platt­for­men von­stat­ten­ge­hen kön­nen. So hat bereits vor der Jahrtau­sendwende die CD als digi­ta­les Pro­dukt die ana­lo­ge Vinyl-Schall­plat­te ersetzt. Einen Schritt wei­ter ging nach der Jahr­tau­send­wen­de der Trend zum Down­load von Musikstü­cken anstatt des Kaufs von Musik auf Daten­trä­gern. Wäh­rend die ers­te Ver­än­de­rung we­nig Ein­fluss auf die Künst­ler und den Ver­trieb von Musik hat­te, mach­te der zwei­te Digita­lisierungsschritt auf­grund des neu­en Kanals, über den Hörer Musik erwer­ben, die Press­werke und Plat­ten­lä­den teil­wei­se obso­let. In den ver­gan­ge­nen Jah­ren lässt sich der Trend zum Strea­ming von Musik beob­ach­ten. Die­ser bedeu­tet, dass Musik nicht mehr über den Kauf von Daten­trä­gern oder den Down­load ein­zel­ner Musik­stü­cke gekauft wird, son­dern dass gegen eine fes­te Gebühr der unbe­grenz­te Zugriff auf Musik gewährt wird. Dadurch ver­än­dert sich sowohl der „Kauf“ als auch der Ver­trieb von Musik dras­tisch, ein­her­ge­hend mit neu­en Geschäfts­op­por­tu­ni­tä­ten und ‑model­len.

Ermög­licht wird die­ses Ange­bot durch Platt­for­men, die den Dienst des Musik­strea­mings bereit­stel­len, aber auch offen für wei­te­re Funk­tio­na­li­tä­ten sind und dadurch Kun­den an das die Platt­form betrei­ben­de Unter­neh­men bin­den. Auf die­sem Weg wird die Platt­form zu einem eige­nen Öko­sys­tem, das durch die Inte­gra­ti­on diver­ser Ange­bo­te die Bedürf­nis­se der Nut­zer in einem The­men­ge­biet, zum Bei­spiel Musik, umfas­send und kom­for­ta­bel zufrie­den­stellt. Die­se Ange­bo­te kön­nen Kom­ponenten wie Bezah­lung, Rech­te­ver­wal­tung und Daten­ana­ly­se beinhal­ten. Die Viel­falt macht hier­bei deut­lich, dass Platt­for­men trotz Fokus­sie­rung auf eine Bran­che den­noch breit auf­ge­stellt sind und Diens­te aus diver­sen Domä­nen ein­bin­den müs­sen.

Biologisierung und Smart Ecosystems

Der Begriff des Öko­sys­tems fiel bereits im vor­he­ri­gen Kapi­tel. Die Nut­zung der Meta­pher eines Öko­sys­tems in der Geschäfts­welt ist spä­tes­tens seit James Moo­res Buch „The Death of Com­pe­ti­ti­on“ aus dem Jahr 1997 geläu­fig (Moo­re 1997). Nach und nach wur­de der Begriff auch für wei­te­re „Öko­sys­te­me“ eta­bliert, dar­un­ter soge­nann­te Soft­ware-Öko­­­sys­te­me (Mes­ser­schmitt, Szy­per­ski 2003). Unter Soft­ware-Öko­sys­te­men ver­steht man das Zusam­men­spiel aus Orga­ni­sa­tio­nen und Unter­neh­men, die als eine Ein­heit funktio­nieren und auf einer gemein­sa­men tech­ni­schen Platt­form inter­agie­ren, um Pro­duk­te und Dienst­leis­tun­gen anzu­bie­ten. Dar­auf auf­bau­end eta­bliert sich mehr und mehr der Begriff des „digi­ta­len Öko­sys­tems“. Die Güter, die in einem sol­chen Öko­sys­tem gehan­delt wer­den, wer­den durch Soft­ware ermög­licht, sind jedoch nicht die Soft­ware an sich. Bei­spie­le kön­nen hier Musik oder Trans­port­mög­lich­kei­ten sein, die über ein digi­ta­les Öko­sys­tem von Part­nern über eine Platt­form ange­bo­ten wer­den.

Anders als ein bio­lo­gi­sches Öko­sys­tem, von dem die Bezeich­nung ent­lehnt ist, wer­den digi­ta­le Öko­sys­te­me expli­zit kre­iert. Der „Schöp­fer“ des digi­ta­len Öko­sys­tems bestimmt die Regeln, an die sich Part­ner hal­ten müs­sen, wenn sie par­ti­zi­pie­ren möch­ten. Dar­über hin­aus pro­fi­tiert der Betrei­ber des Öko­sys­tems mit sei­ner zen­tra­len Platt­form, über die die Daten und Diens­te im Öko­sys­tem flie­ßen, von allen Trans­ak­tio­nen im Öko­sys­tem. Damit Trans­ak­tio­nen über die Platt­form des Öko­sys­tems abge­wi­ckelt wer­den, muss der Betrei­ber den Fokus auf die Koor­di­na­ti­on des Zusam­men­wir­kens ein­zel­ner Diens­te exter­ner Part­ner legen. Ana­log zu sozia­len Ver­bän­den in der Bio­lo­gie gibt es kei­ne fes­ten Struktu­ren, weil sich die Zusam­men­set­zung der Part­ner und ihrer Akti­vi­tä­ten im Öko­sys­tem kon­tinuierlich ändert. Statt­des­sen spricht man von „Ver­hal­tens­re­geln“ und einer gemein­sa­men „Spra­che“ sowie gemein­sa­men „Wer­ten“, die die Zusam­men­ar­beit im Öko­sys­tem len­ken. Auf­grund der Selbst­stän­dig­keit der Part­ner, die auch wäh­rend der Teil­nah­me am Ökosys­tem gewahrt bleibt, kön­nen die­se jeder­zeit beschlie­ßen, das Öko­sys­tem zu ver­las­sen.

Die­se Zu- und Abgän­ge ent­wi­ckeln eine Dyna­mik ähn­lich den auto­no­men und dynami­schen Anpas­sun­gen in der Bio­lo­gie. Folg­lich muss auch ein digi­ta­les Öko­sys­tem in der Lage sein, auf Ver­än­de­run­gen ange­mes­sen zu reagie­ren und gege­be­nen­falls selbststän­dig Anpas­sun­gen vor­zu­neh­men. Eine wei­te­re Ana­lo­gie zur Bio­lo­gie wird in Bezug zur „In­telligenz“ sol­cher Sys­te­me gezo­gen, die not­wen­dig ist, um die erfor­der­li­chen Anpassun­gen vor­zu­neh­men. Selbst wenn kei­ne Intel­li­genz im Sin­ne des mensch­li­chen Bewusst­seins damit gemeint ist, so geht es doch um eine künst­li­che Intel­li­genz, die bio­lo­gi­sche Intel­li­genz nach­ahmt. Schließ­lich gilt im Öko­sys­tem, wie in der Bio­lo­gie auch, dass die Gesamt­heit der Ein­zel­sys­te­me mehr bie­ten kann als die Ein­zel­sys­te­me allei­ne. Aus die­sem Grund las­sen sich aus dem Zusam­men­wir­ken in der Bio­lo­gie Inspi­ra­tio­nen für die Gestal­tung digi­ta­ler Öko­sys­te­me gewin­nen.

Internet der Dinge

(Foto: Schwar­ze)

Die Bezeich­nung „Inter­net der Din­ge“ ist ein Sam­mel­be­griff für ver­schie­de­ne Tech­no­lo­gien und Anwen­dun­gen, mit denen Objek­te aus der rea­len und vir­tu­el­len Welt ver­netzt wer­den kön­nen, womit die Basis für viel­fäl­ti­ge (erwei­ter­te) Inter­ak­tio­nen mit bzw. zwi­schen die­sen Objek­ten ermög­licht wird. Die zugrun­de­lie­gen­den Ideen hier­für wur­den schon Anfang der 1990er Jah­re unter dem Begriff „Ubi­qui­tous Com­pu­ting“ ein­ge­führt (Wei­ser 1991 ); es be­stehen zudem zahl­rei­che Bezü­ge zum The­men­feld „Embed­ded Sys­tems“.

Das Inter­net der Din­ge zeich­net sich vor allem dadurch aus, dass Objek­te ein­deu­tig adres­sierbar bzw. iden­ti­fi­zier­bar sind und viel­fach selbst mit ein­ge­bet­te­ter Tech­no­lo­gie wie etwa Sen­so­rik oder RFID-Chips aus­ge­stat­tet sind (ein pro­mi­nen­tes Bei­spiel hier­für sind soge­nannte „Weara­bles“ wie Smart­Wat­ches oder Fit­ness­arm­bän­der). Mat­tem und Flör­ke­mei­er (2010) füh­ren fol­gen­de Aspek­te auf, auf­grund derer das „Inter­net der Din­ge“ in sei­ner Gesamt­heit zu einer neu­en Qua­li­tät der Tech­nik­ent­wick­lung führt: Kom­mu­ni­ka­ti­on und Ko­operation, Adres­sier­bar­keit, Iden­ti­fi­ka­ti­on, Sen­so­rik, Effek­to­rik, Loka­li­sie­rung und Benut­zungsschnittstelle. Zu den pro­mi­nen­tes­ten Anwen­dungs­fel­dern im The­men­feld des „Inter­net der Din­ge“ gehö­ren Smart Hor­ne, Mobi­li­tät, Logis­tik und Gesund­heits­we­sen.

Blockchain

Die Block­chain erlang­te Bekannt­heit durch ihre Rol­le als Basis­tech­no­lo­gie der seit 2009 im Umlauf befind­li­chen Kryp­to­wäh­rung Bit­coin. Seit die­sem Zeit­punkt wur­de die Blo­ck­chain-Tech­no­lo­gie bei der Schaf­fung zahl­rei­cher wei­te­rer digi­ta­ler Zah­lungs­mit­tel ver­wendet, um Buchungs­sys­te­me zu rea­li­sie­ren, die von der Exis­tenz einer zen­tra­len ver­trauenswürdigen Stel­le (z. B. Ban­ken oder Nota­re) unab­hän­gig sind.

Die Block­chain-Tech­no­lo­gie erlaubt hier­bei das dezen­tra­le Füh­ren einer Daten­bank, deren Kor­rekt­heit auf Basis einer Kon­sens­bil­dung der Betei­lig­ten sicher­ge­stellt wird. Jede ein­zelne Trans­ak­ti­on ist unleug­bar und auto­ma­tisch prüf­bar. Mani­pu­la­ti­ons­ver­su­che an er­folgreich vor­ge­nom­me­nen Ein­trä­gen sind durch eine kryp­to­gra­fi­sche Ver­knüp­fung der die gesam­te Trans­ak­ti­ons­his­to­rie beinhal­ten­den Daten­blö­cke für alle Betei­lig­ten direkt er­kennbar.

Die Block­chain-Tech­no­lo­gie scheint daher neben ihrem Ein­satz bei Kryp­to­wäh­run­gen in wei­te­ren Berei­chen neue Chan­cen zu bie­ten, teil­wei­se auch in Form dis­rup­ti­ver Ge­schäftsmodelle. Sie ermög­licht z. B. Smart Con­tracts, bei denen sich die Rege­lun­gen ei­nes Ver­trags elek­tro­nisch abbil­den las­sen. Aktu­ell wird die Kon­zep­ti­on und Ent­wick­lung ers­ter Pro­to­ty­pen in zahl­rei­chen Bran­chen ins­be­son­de­re durch Start-ups vor­an­ge­trie­ben.

Augmented Reality

Eine ein­heit­li­che Defi­ni­ti­on zu Aug­men­ted Rea­li­ty (AR) gibt es in der Lite­ra­tur nicht. Zur begriff­li­chen Klä­rung wird häu­fig auf das Rea­li­ty-Vir­tua­li­ty Con­ti­n­u­üm von Mil­gram et al. (1994) Bezug genom­men. Dabei wird AR als jede Tech­no­lo­gie beschrie­ben, die rea­le und vir­tu­el­le Infor­ma­tio­nen sinn­voll kom­bi­nie­ren kann. In einer wei­te­ren Defi­ni­ti­on zu AR von Azu­ma (1997) ist AR durch fol­gen­de Cha­rak­te­ris­ti­ka defi­niert: (1) Kom­bi­na­ti­on von virtu­eller Rea­li­tät und rea­ler Umwelt mit teil­wei­ser Über­la­ge­rung, (2) Inter­ak­ti­on in Echt­zeit und (3) drei­di­men­sio­na­ler Bezug vir­tu­el­ler und rea­ler Objek­te (Mehl­er-Bicher und Stei­ger 2017). Die vir­tu­el­len Infor­ma­tio­nen wer­den hier­bei in das Sicht­feld eines Betrach­ters ein­geblendet. Der Benut­zer ist mit einem mobi­len End­ge­rät oder einer Daten­bril­le ausgestat­tet. Dabei kön­nen in tech­no­lo­gi­scher Hin­sicht vier Ebe­nen der AR unter­schie­den wer­den: Ebe­ne 1: QR-Code-basier­te Akti­vie­rung von damit ver­bun­de­nen Infor­ma­tio­nen (Hyper­links, Bil­der, Tex­te, Audi­os, Vide­os usw.). Ebe­ne 2: Mar­ker­ba­sier­te (Trig­ger, Tra­cker, Tar­gets oder Image) Akti­vie­rung vir­tu­el­ler Zusatz­in­for­ma­tio­nen (z. B. Ein­blen­den eines 3D­Modells). Ebe­ne 3: Mark­er­lo­se Akti­vie­rung vir­tu­el­ler Infor­ma­tio­nen. Hier­bei erkennt eine in das mobi­le End­ge­rät bzw. in die Daten­bril­le inte­grier­te Kame­ra die Kon­tur bzw. Struk­tur eines rea­len Objek­tes, oder ein inte­grier­tes GPS löst über die Ver­ar­bei­tung geo­gra­fi­scher Daten an einem bestimm­ten Stand­punkt die Akti­vie­rung der vir­tu­el­len Infor­ma­tio­nen aus. Ebe­ne 4: Bei der soge­nann­ten immer­si­ven AR wird über die nicht- oder halb­trans­pa­ren­te Daten­bril­le eine vir­tu­el­le 3D-Welt direkt in das Blick­feld des Benut­zers ein­ge­spielt (Castel­lanos und Perez 2017).

(Foto: Unsplash)

Um AR-Anwen­dun­gen der Ebe­ne 4 zu ermög­li­chen, ist es not­wen­dig, zunächst die rea­le Umge­bung zu erfas­sen (über nicht-visu­el­les oder visu­el­les Tracking), um anschlie­ßend die­se Umge­bung um vir­tu­el­le Objek­te und Infor­ma­tio­nen zu ergän­zen (Realitätserweite­rung). Der Benut­zer trägt dabei eine Daten­bril­le (als Head-Moun­ted Dis­play; HMD) mit oder ohne ein soge­nann­tes See-Through Dis­play. Beim HMD-Prin­zip ist die Kame­ra am Kopf des Betrach­ters mon­tiert. Dadurch kann sie bei Kopf­be­we­gun­gen die rea­le Umge­bung erfas­sen und ent­we­der nach Mar­kern oder nach natür­li­chen For­men (Mar­ker- oder Mark­erless Tracking) suchen. Die Pro­jek­ti­on erfolgt auf ein Dis­play, das direkt vor den Augen des Betrach­ters mon­tiert ist. Das Ren­de­ring aus rea­len und vir­tu­el­len Bil­dern wird in sei­ner Gesamt­heit auf das Dis­play pro­ji­ziert. Alter­na­tiv kann der Betrach­ter durch ein sog. See-Through Dis­play die rea­le Umge­bung erken­nen; ledig­lich die vir­tu­el­len Objek­te wer­den zusätz­lich in das Dis­play pro­ji­ziert (Mehl­er-Bicher und Stei­ger 2017).

Ähn­lich wie bei Vir­tu­al Rea­li­ty exis­tiert mitt­ler­wei­le eine Viel­zahl von Anwendungsszena­rien, die häu­fig auch mit der Bezeich­nung „living“ ver­se­hen sind. Beim „Living Mir­ror“ er­kennt eine Kame­ra das Gesicht des Betrach­ters und plat­ziert lage­ge­recht dreidimensio­nale Objek­te auf dem Gesicht bzw. Kopf. Das „Living Print“ Sze­na­rio basiert auf dem Er­kennen eines Print­me­di­ums und ent­spre­chen­der Aug­men­tie­rung. Beim „Living Game Mo­bile“ bil­den mobi­le End­ge­rä­te die Basis für aug­men­tier­te Spie­le, die z. B. auf dem Smart­phone zur Anwen­dung gebracht wer­den. Mit­hil­fe von AR las­sen sich Tele- und Videokon­ferenzen anrei­chern („Living Mee­ting“), sodass sie fast wie rea­le zusam­men­tref­fen wir­ken. Wei­te­re Anwen­dungs­bei­spie­le stel­len „Living Archi­tec­tu­re“ (Ver­mitt­lung von Raumeindrü­cken), „Living Pos­ter“ (Wer­be­bot­schaf­ten im öffent­li­chen Raum) und „Living Presentati­ons“ (aug­men­tier­te Mes­se­stän­de und Prä­sen­ta­tio­nen) dar.

Alle AR-Anwen­dun­gen, die mit mobi­len Sys­te­men rea­le Umge­bun­gen oder Ein­rich­tun­gen mit Zusatz­in­for­ma­tio­nen jeg­li­cher Art wie Text, 2D- oder 3D-Objek­ten, Video- und Audio­sequenzen erwei­tern, bezeich­net man als „Living Envi­ron­ment“. Ziel ist zeit­na­he Informa­tionsgewinnung (Time-to-Con­tent) durch den Benut­zer allein dadurch, dass durch die Ka­mera ein Objekt oder eine Kom­bi­na­ti­on von Objek­ten erfasst wird und ent­spre­chen­de Zu­satzinformationen bereit­ge­stellt wer­den (Mehl­er-Bicher und Stei­ger 2017).

Virtual Reality

Der Begriff „Vir­tu­el­le Rea­li­tät“ (VR) wird für eine Viel­falt von hete­ro­ge­nen Tech­no­lo­gien, Anwen­dungs­ge­bie­ten und inter­dis­zi­pli­nä­ren Theo­rie- und For­schungs­an­sät­zen verwen­det. In tech­no­lo­gi­scher Hin­sicht spie­len Visua­li­sie­rungs­tech­ni­ken eine wich­ti­ge Rol­le. Vir­tuelle Rea­li­tä­ten kön­nen auf ein­fa­chen Dis­plays reprä­sen­tiert wer­den. Sie kön­nen durch geschlos­se­ne VR-Bril­len (sog. Head-Moun­ted Dis­plays) oder in Daten­bril­len erzeugt wer­den, wel­che die phy­si­ka­li­sche Rea­li­tät mit zusätz­li­chen Infor­ma­tio­nen über­la­gern (Aug­mented Rea­li­ty). Eine ande­re Visua­li­sie­rungs­tech­nik ist die soge­nann­te CAVE (Cave Au­tomatie Vir­tu­al Envi­ron­ment). In einer CAVE wer­den vir­tu­el­le Wel­ten so prä­sen­tiert, dass sie drei­di­men­sio­nal mit­ten im Raum zu ste­hen schei­nen und von den Betrach­tern interak­tiv in Echt­zeit mani­pu­liert wer­den kön­nen (Kuh­len 2014). Neben Visua­li­sie­rungs­tech­ni­ken wer­den aber auch Tech­no­lo­gien ein­ge­setzt, wel­che die akus­ti­schen und tak­ti­len Sinnes­reize des Men­schen anspre­chen und damit die Gestal­tung einer VR als eine multisenso­risch wahr­nehm­ba­re Welt ermög­li­chen (Brill 2009). Inso­fern ist VR eine spe­zi­el­le Form der Mensch-Com­pu­ter-Schnitt­stel­le, die meh­re­re mensch­li­che Sin­ne in die Inter­ak­ti­on einbe­zieht und beim Benut­zer die Illu­si­on her­vor­ruft, die com­pu­ter­ge­ne­rier­te künst­li­che Welt als real wahr­zu­neh­men (Kuh­len 2014).

(Foto: Unsplash)

VR-Anwen­dungs­sze­na­ri­en fin­den sich inzwi­schen in zahl­rei­chen Gebie­ten, so etwa in der Medi­zin, im Mili­tär, im Bil­dungs­be­reich, in ver­schie­de­nen Wis­sen­schafts­zwei­gen, in der Indus­trie sowie im Unter­hal­tungs­be­reich. Indus­tri­el­le Pro­duk­ti­ons­stra­ßen wer­den heu­te vir­tu­ell geplant, auf ihre Leis­tungs­fä­hig­keit geprüft und gestal­tet (Jun et al. 2012). Zu Trai­­nings- und Pla­nungs­zwe­cken wer­den in der Chir­ur­gie vir­tu­el­le Ope­ra­tio­nen durch­ge­führt (Riva 2014) und dia­gnos­ti­sche und the­ra­peu­ti­sche Ent­schei­dun­gen mit­hil­fe vir­tu­el­ler Pati­entensimulationen trai­niert (Mül­ler-Wit­tig 2017). Sol­da­ten und Sol­da­tin­nen trai­nie­ren den Kampf, Mili­tär­stra­te­gen simu­lie­ren das Gefecht (Smith 2014). Zu the­ra­peu­ti­schen Zwe­cken wer­den Pati­en­ten vir­tu­ell in Situa­tio­nen gebracht, vor denen die­se Pho­bien haben (Mühl­ber­ger 2014). Ein wei­te­res gro­ßes Anwen­dungs­ge­biet stellt der Unterhaltungsbe­reich, ins­be­son­de­re die Spie­le­bran­che, dar (Damer und Hin­richs 2014).

Viel­fäl­tig sind auch die Theo­rie- und For­schungs­an­sät­ze zur vir­tu­el­len Rea­li­tät. Je nach dis­zi­pli­nä­rer Her­an­ge­hens­wei­se kön­nen sehr ver­ein­facht gesagt ingenieurwissenschaftli­che von human- und sozi­al­wis­sen­schaft­li­chen Ansät­zen unter­schie­den wer­den. Einherge­hend mit der rasan­ten tech­no­lo­gi­schen Ent­wick­lung neh­men aber auch zeit­dia­gnos­ti­sche, ethi­sche und daten­schutz­recht­li­che Bei­trä­ge, wel­che die sozia­len, poli­ti­schen und norma­tiven Impli­ka­tio­nen (Chan­cen, Gefah­ren, Risi­ken) vir­tu­el­ler Rea­li­tä­ten dis­ku­tie­ren, immer mehr Raum ein (Kamin­ski 2016).

Im Gart­ner Hyper Cycle für das Jahr 2017 hat VR die Pha­sen des eigent­li­chen Hypes und die der Tal­soh­le bereits durch­lau­fen und befin­det sich in der Pha­se, in der eine Technolo­gie nutz­brin­gend von inno­va­ti­ons­of­fe­nen Unter­neh­men auf­ge­grif­fen und ein­ge­setzt wird (Panet­ta 2017). Im Digi­tal Trend Out­look 2016 wur­de Vir­tu­al Rea­li­ty als einer der größ­ten tech­no­lo­gi­schen Mei­len­stei­ne des Jah­res 2016 bezeich­net. Zwar domi­nie­ren beim aktuel­len Ange­bot von VR-Bril­len noch die Glo­bal Play­er (Ocu­lus Rift, HTC Vive, Sam­sung Gear VR) den Markt, es wird aber davon aus­ge­gan­gen, dass sich mit zuneh­men­der Marktat­traktivität auch klei­ne Anbie­ter im VR-Geschäft eta­blie­ren wer­den. Dem Gaming-Markt wird dabei eine Schlüs­sel­rol­le bei der lang­fris­ti­gen Durch­set­zung der VR-Tech­no­lo­gie zu­gesprochen. Dies liegt dar­an, dass die Gamer als „Ear­ly Adop­ter“ für die­se neu­en Tech­nologien ange­se­hen wer­den. Wei­ter­hin wird davon aus­ge­gan­gen, dass bereits in den nächs­ten fünf Jah­ren mit einem expan­si­ven Markt­wachs­tum zu rech­nen ist bzw. dass sich VR-Anwen­dun­gen ähn­lich wie Smart­pho­nes zu einer Main­stream-Tech­no­lo­gie ent­wi­ckeln wer­den. Dabei schät­zen 20,3 % der im Digi­tal Trend Out­look 2016 befrag­ten 1.057 Kon­sumenten die Medi­zin als eine wich­ti­ge Bran­che ein (Ball­haus et al. 2016).


Servicebasierte Infrastrukturen (SaaS, laaS, PaaS) in Kombination mit Cloud Hosting

Mit dem Begriff der ser­vice­ba­sier­ten Infra­struk­tu­ren sind Infra­struk­tu­ren, aber auch Platt­formen und Soft­ware gemeint, die in einer Cloud-Umge­bung ihren Nut­zern zur Ver­fü­gung gestellt wer­den (Som­mer­gut 2015). Unter einer Cloud-Umge­bung ver­steht man eine IT-Umge­bung, in der Rech­nerres­sour­cen, zum Bei­spiel Spei­cher­platz und Rechen­ka­pa­zi­tät, aber auch Anwen­dun­gen und Diens­te, so bereit­ge­stellt wer­den, dass orts- und zeitunab­hängig dar­auf zuge­grif­fen wer­den kann (BSI 2018). Unter­schie­den wird in der Regel zwi­schen öffent­li­chen Clouds, auf der Diens­te der All­ge­mein­heit zur Ver­fü­gung gestellt wer­den, und pri­va­ten Clouds, die nur für eine Insti­tu­ti­on, zum Bei­spiel eine Fir­ma, bereitge­stellt wer­den. Außer­dem sind soge­nann­te Com­mu­ni­ty Clouds mög­lich, bei denen die Inf­rastruktur zwi­schen meh­re­ren Insti­tu­tio­nen geteilt wird. Schließ­lich gibt es den Begriff der hybri­den Cloud, wel­che die gemein­sa­me Nut­zung meh­re­rer Cloud-lnfra­struk­tu­ren über stan­dar­di­sier­te Schnitt­stel­len beschreibt.

Wäh­rend die oben genann­te Klas­si­fi­ka­ti­on vor allem die Zugrif­fe auf eine Cloud regelt, bil­det das Drei-Schich­ten-Modell (Lieb­mann 2015) eine inhalt­li­che Struk­tu­rie­rung von Cloud-Diens­ten (Ser­vices) ab. lnfra­st­ruc­tu­re as a Ser­vice (laaS; z. B. Ama­zon EC2) bie­tet grund­le­gen­de Res­sour­cen wie Rechen­ka­pa­zi­tä­ten, Spei­cher oder Netz­werk­ka­pa­zi­tä­ten. Dar­auf auf­bau­end kann und muss ein Anwen­der selbst Rechen­in­stan­zen und Spei­cher zusam­men­stel­len, um dar­auf Betriebs­sys­te­me und Anwen­dun­gen lau­fen zu las­sen. Beim Kon­zept der Plat­form as a Ser­vice (PaaS; z.B. Win­dows Azu­re) ste­hen nicht nur die zuvor genann­ten Res­sour­cen zur Ver­fü­gung, son­dern ent­spre­chen­de Anbie­ter stel­len Program­miermodelle und Ent­wick­ler­werk­zeu­ge zur Ver­fü­gung, sodass ein Anwen­der auf die­ser Basis eige­ne Anwen­dun­gen erstel­len und aus­füh­ren kann.

Typi­sche Funk­tio­na­li­tä­ten bei PaaS sind die Last­ver­tei­lung zwi­schen Rechen­kno­ten oder die Über­wa­chung von Ereig­nissen im Sys­tem. Bei Soft­ware as a Ser­vice (SaaS; z. B. Drop­box) schließ­lich über­nimmt der Anbie­ter voll­stän­dig die Ver­wal­tung der Res­sour­cen und des zugrun­de­lie­gen­den Be­triebssystems ein­schließ­lich des Ein­spie­lens von Aktua­li­sie­run­gen. Somit kann der An­wender von der Nut­zung der Soft­ware­an­wen­dun­gen pro­fi­tie­ren, ohne sich um tech­ni­sche Infra­struk­tu­ren küm­mern zu müs­sen.

Die­ser Bei­trag ist ein Aus­zug aus der „Gut­ach­ter­li­chen Stel­lung­nah­me zu den Aus­wir­kun­gen künst­li­cher Sys­te­me und der Digi­ta­li­sie­rung auf das kom­mu­na­le Leben in Rhein­land-Pfalz 2050“. Die gesam­te Stu­die steht unter ea​-rlp​.de/​e​a​r​l​p​d​i​g​i​t​a​l​2​019 zum Down­load als PDF (88 Sei­ten, 18 MB) bereit.

Aus­zug 1 – Künst­li­che Intel­li­genz: Kon­zep­te und Tech­no­lo­gien
Aus­zug 2 – Fünf Bei­spie­le: Chan­cen durch KI in Land­wirt­schaft, Gesund­heit, Ehren­amt, Tou­ris­mus und Mobi­li­tät in RLP
Aus­zug 3 – Sze­na­ri­en für Rhein­land-Pfalz: Zwi­schen Dys­to­pie und Uto­pie

Zusam­men­fas­sung