Ihre aktuelle Position:
  1. wien.at
  2. Video

Mitschrift

* dynamische Musik *

* sphaerische Musik *

Es gibt tatsaechlich Apps,

die neben ihrer Hauptfunktion wie
etwa ein unterhaltsames Spiel zu sein

ihre Nutzer abhoert.

Vor einem Jahr
hat die New York Times

ueber eine Software namens Alphonso
berichtet,

die 1000 Nutzer - zumindest
zu diesem Zeitpunkt - gehabt hat.

Wie viele Nutzer sie heute hat

und wie viele solche Apps die Neben-
funktionen haben, wissen wir nicht.

Was wir schon wissen, ist,

dass wir mitten in dieser
digitalen Zukunft angelangt sind.

Ein Leben ohne Internet,
ein Leben ohne Smartphone -

Sie werden auch mich hier oben
auf der Buehne mit Smartphone sehen.

Nicht, weil ich unhoeflich bin
oder es nicht aushalte,

nicht mit meinen Liebsten
zu kommunizieren,

sondern weil ich auf die Zeit
achten werde.

Und ich keine Armbanduhr trage.

Manche Menschen
bezahlen richtig viel Geld dafuer,

sich ein paar Tage oder Wochen
digital zu absentieren

und Abstinenz zu ueben.

Andererseits ist vieles
von diesem Digitalen

noch nicht so entwickelt
und nicht so gefinkelt,

wie wir es gerne haetten.

Und der Verlust von Privatsphaere

und die exponentielle Zunahme
digitaler Ueberwachung,

das sind nur Teile von diesen
sehr existentiellen Problembereichen,

die mit der digitalen Entwicklung
einhergehen.

Das Versprechen,
naemlich mehr Demokratie,

ein angenehmeres, einfacheres,
individuelles, zugeschnitteneres

On-demand-Leben,
das muss erst geliefert werden.

Diese Versprechen
muessen erst gehalten werden.

Nicht umsonst sprechen wir heute
Abend vom digitalen Humanismus,

von einer Gesellschafts-,
Wirtschaftsform,

von einer Ethik,

die uns Menschen in den Mittelpunkt
dieser digitalen Veraenderung rueckt.

Ich darf Ihnen verraten,

in diesem Buch,
um das sich der heutige Abend dreht,

da finden sich
viele, viele Anregungen dazu.

"Digitaler Humanismus -

eine Ethik fuer das Zeitalter
der Kuenstlichen Intelligenz",

so heißt es.

Geschrieben haben es

die Kulturwissenschafterin
Nathalie Weidenfeld

und der Philosoph
Julian Nida-Ruemelin.

Fuer dieses Buch bekommen die beiden
heute Abend

den Bruno-Kreisky-Preis
fuer das politische Buch.

Bitte.

Genau, ich darf Sie gleich
hierherbitten.

Und ich darf, genau, Frau Weidenfeld
noch mal auf die Buehne bitten.

Und jemanden - Sie haetten sich ruhig
noch Zeit lassen koennen,

aber kommen Sie nur,
Sie duerfen auch noch unten warten -,

der sich in Wien
dem Thema digitaler Humanismus

sehr stark angenommen hat.

Vor kurzem hat er einen
internationalen Workshop organisiert

und daraus ein Manifest
zum digitalen Humanismus verfasst.

Er wird uns die Sicht der Technik
naeherbringen.

Und zwar im Gespraech
mit Nathalie Weidenfeld

und Julian Nida-Ruemelin.

Wir begrueßen bitte gemeinsam
den Dekan der Fakultaet fuer Informatik

an der Technischen Universitaet Wien,
Hannes Werthner.

* Applaus *

Bitte sehr.

Hannes Werthner, wir haben jetzt ueber
Science-Fiction-Filme gesprochen,

die auch eine zentrale Rolle
in diesem Buch spielen.

Die oft viel dystopischer sind
als utopisch.

Andererseits haben wir diese Demo-
kratie- und oekonomischen Versprechen,

quasi die subsumiert werden
unter der Silicon-Valley-Ideologie.

Und der digitale Humanismus
beschaeftigt sich ja damit,

wie dieser digitale Wandel
stattzufinden hat.

Mich wuerd jetzt mal interessieren,

wo Sie uns in diesem Entwicklungs-
stand verorten wuerden.

Es gibt ja einerseits
diese beruehmte Oxford-Studie,

auch die findet sich
im Buch wieder,

nach der bis zum Jahr 2050
in den USA

47 Prozent aller Jobs,

und damit ist ganz stark der Bereich
des autonomen Fahrens mitgemeint,

obsolet werden koennten.

Das wird oft als die Horrorstudie
quasi dargestellt

und das koennte auch nach Europa
schwappen.

Und auf der anderen Seite gibt es
viele Stimmen, die sagen: "Ach!"

Robert Gordon ist einer von diesen
großen oekonomischen Vertretern,

die zum Beispiel sagen:

Was ist schon
die Erfindung von Facebook

im Vergleich zur Erfindung
des Wasserklosetts?

Also sehr populistisch, kurz,
praegnant gesagt,

aber bis jetzt muessen
die großen Produktivitaetsgewinne

und die großen Erfindungen,
die die Menschheit weiterbringen,

erst geliefert werden.

Wo wuerden Sie uns verorten?

Wie weit im Digitalen
sind wir schon angekommen?

Also, die Diskussion
ueber kuenstliche Intelligenz

beziehungsweise
ueber Artificial Intelligence,

ich wuerde das gern umdrehen
und sagen,

wir sind im Bereich
der intelligenten Applikationen.

Wir sind noch nicht, oder wir sind
nicht, oder wir sind weit entfernt

von diesem Bereich
der kuenstlichen Intelligenz.

Wir haben zurzeit eine Simulation,
eine Abbildung

von einigen intelligenten Funktionen
menschlichen Handelns, Denkens.

Wir haben paradigmatisch in der
kuenstlichen Intelligenz zwei Ansaetze.

Einerseits ist es so axiomatisch,
regelbasiert,

A-priori-Regeln
beschreiben die Welt als Ganzes,

und ich kann daher ueber die Welt
aussagen und Schluesse ziehen.

Und ich habe auf der anderen Seite
einen statistischen,

datengetriebenen Ansatz,

Machine Learning
unter dem heutigen Schlagwort.

Und wenn ich das trivial sage,
ist das angewandte Statistik.

Und da sind wir relativ weit.

Das sind Uebersetzungsprogramme,
das sind die Suchalgorithmen,

das ist Erkennen
von Mustern in Bildern,

zum Beispiel in der Medizin.

Aber ich wuerde das nicht verwechseln
mit kuenstlicher Intelligenz.

Ich richte damit
gleichzeitig auch den Appell,

dass man den Begriff der kuenstlichen
Intelligenz vorsichtiger verwendet.

Weil wir mystifizieren etwas,
was in der Informatik passiert,

und sollten wirklich sagen:

Wir haben Anwendungen,
die simulieren Intelligenz.

Ein letzter Punkt noch dazu:

Die Informatik
als abstrakte Wissenschaft

des Computers
oder eines Automaten

hat die Eigenschaft,

wenn Software
auf irgendein Geraet kommt,

dann wird dieses Geraet
zu einem Computer.

Dadurch ist es so maechtig.

Also die Software transformiert
jedes allgemeine beliebige Geraet

in ein konkretes Geraet.

Man macht daraus ein Handy,
einen Fernseher, eine Fraesemaschine.

Das ist die große Maechtigkeit
der Informatik:

Beschreibung
eines abstrakten Automaten.

Aber damit gleichzeitig auch
die Begrenzung der Informatik.

Wir haben algorithmisches Denken -

wie schon vom Herrn Swoboda
gesagt wurde:

Algorithmen sind nicht alles.

Wir haben unentscheidbare Raeume,
wir haben freien Willen.

Und da sind wir noch lange weg.

Und jetzt hoere ich auf,
sonst wird das ein Koreferat,

und die Dreiviertelstunde
ist vorbei.

* Gelaechter *

Das werden wir
nicht geschehen lassen.

Sie haben im Untertitel

"das Zeitalter
der Kuenstlichen Intelligenz".

Wie weit sind wir in diesem Zeitalter
fortgeschritten?

Da ist also ...
nicht nur kein Dissens,

sondern ich wuerde sogar
noch einen Schritt weiter gehen.

Ich sage immer: Schreibt "Kuenstliche
Intelligenz" mit großen K!

Mit kleinem K gibt es ein Problem:

Dann wird impliziert,
dass es das ueberhaupt gibt,

naemlich eine kuenstliche Intelligenz.

Und jetzt, je nachdem, was man unter
Kuenstlicher Intelligenz versteht.

Wenn man unter Intelligenz versteht,

dass es da jemanden gibt,
der Dinge beurteilt,

dass es Intentionen gibt ...

(Lyon:) Der Programmierer.

Na ja, nein, ich mein, jetzt, Moment.

Wenn man unter Intelligenz
das versteht,

dann sind wir beide der Auffassung,
aber nicht allein damit -

da gibt es auch gute philosophische
Argumente, etwa von John Searle,

die einschlaegig sind,

dass Softwaresysteme
nicht ueber Intelligenz verfuegen.

Jetzt kann man sagen:
Woher wisst ihr das?

Und kann sich das nicht mal aendern?

Meine Antwort waere: Ja,
es kann sich grundsaetzlich aendern.

Ob sich das je aendern wird,
da bin ich sehr skeptisch.

Was wir gegenwaertig haben,

ist eine zum Teil sehr gute
Simulation -

Sie haben es gesagt,
das sehe ich ganz genauso.

Simulation von Faehigkeiten,

die wir ueblicherweise
mit Intelligenz verbinden.

Und das geschieht zum Teil
auf eine sehr geschickte Weise.

Jetzt muss man sich mal klarmachen,

worin der animistische Fehlschluss -
so nennen wir das - besteht.

Stellen Sie sich vor,
es gelingt Ihnen,

eine bestimmte Puppe -

um ein beruehmtes Beispiel aus der
Literaturgeschichte heranzuziehen,

"Der Sandmann" -,

es gelingt Ihnen,
eine Puppe so auszustatten,

mit Stimme und Verhalten
und so weiter,

dass die Menschen
nicht unmittelbar sehen,

dass es sich um eine Puppe handelt.

Daraus zu schließen,
wenn das nicht gelingt,

dann sollten wir annehmen,

dass die Puppe dieselben
Eigenschaften hat wie Menschen,

ist schon eine ziemlich kuehne These.

Sie ist von intelligenten Leuten
vertreten worden,

deswegen muss man sich
mit ihr auseinandersetzen,

das ist der beruehmte Turing-Test
von 1950.

Das ist Behaviorismus.

Dahinter steht die Vorstellung,

dass sich intentionale Zustaende
aeußern

in aeußerlich wahrnehmbarem Verhalten,

ja, genau genommen
nichts anderes sind als Verhalten.

Aber da entstehen viele Probleme.

Zum Beispiel der Superspartaner,

um ein beruehmtes Argument
zu zitieren,

was gegen den Behaviorismus spricht:

Derjenige, der beim Zahnarzt
nie auch nur mit der Wimper zuckt,

kann der Schmerzen haben?
Ja, natuerlich.

Die behavioristische Ideologie
ist schon generell hochproblematisch,

und sie wird angewandt
auf Softwaresysteme:

besonders problematisch.

Weil es zu eine Aufladung fuehrt,
einer Ideologie fuehrt,

die uebrigens am Ende technik-
feindlich sich auswirken wuerde.

Weil Juristen werden sofort zugeben:

Wenn ihr mentale Eigenschaften
zuschreibt -

ich rede noch gar nicht
von menschlichen Eigenschaften,

sondern nur mentalen Eigenschaften,
Empfindungsfaehigkeit etwa -,

dann gelten die Normen
des Tierschutzgesetzes.

Dann koennen wir in Zukunft
nicht mehr ohne Weiteres

Computer auf den Schrotthaufen
werfen.

Frau Weidenfeld,
gerade diese cinematologischen,

diese Kinobilder,

die Sie da auch sehr schoen
und ausfuehrlich beschreiben,

die sind ja sehr aufgeregt,
wie Sie selbst sagen.

Wo sind wir denn in der tatsaechlichen
Debatte, aus Ihrer Sicht?

Also, wie weit fortgeschritten
sind wir, wie viel braucht es noch?

Also, diese Aufgeregtheit,

die wir eben der Filmsprache und
den narrativen Stilmitteln verdanken,

mit denen Film operiert,

haben sozusagen
die Realitaet infiziert.

Und zwar die Realitaet in dem Sinn,

dass wir nicht realistisch
mit diesen Phaenomenen umgehen.

Digitalisierung, Roboter

ist bei uns
ein entweder angstbesetztes Thema

oder ein Thema, mit dem wir
utopische Hoffnungen verbinden.

Wir haben jetzt mehrfach
vom Animismus gesprochen,

die Beseelung
eines unbeseelten Wesens.

Freud hat darueber geschrieben,

in Verbindung mit der Erzaehlung
"Der Sandmann".

Da war es noch nicht einmal so,

dass sich die Puppe Olympia,
in die sich der Protagonist verliebt,

besonders menschenaehnlich ist.

Sie macht eigentlich gar nix.

Aber er projiziert eben
Regungen, Gefuehle,

all seine ...
sein Herz auf diese Puppe.

Und Freud sagt,
dieses animistische Denksystem ...

ist ein Rueckfall.

Ein Rueckfall, wie es -
wie er sagt: primitive Voelker haben,

Kinder
oder auch religioese Gemeinschaften.

Das zaehlt Freud also auch
zu einem regressiven Denksystem.

Und das ist in der Tat
ein Problem, was wir haben,

wenn wir in der Populaerkultur ueber
Roboter und Digitalisierung sprechen.

Da findet etwas Regressives statt.

Wir verbinden damit die Hoffnung
auch eines Schlaraffenlandes,

wo alles wunderbar ... also ...

Schoenes Leben fuer eine Hausfrau
eigentlich.

Eigentlich muesste ich mich freuen
mit diesen Vorstellungen:

Der Kuehlschrank bestellt sich
das Essen, der Roboter saugt.

Aber was am Ende dabei herauskommt,

ist diese Vorstellung
eines regressives Paradieses,

in dem ich in den Zustand
eines Kleinkindes zurueckfalle.

Das hat sehr schoen Spielbergs Film
"Wall-E" verdeutlicht,

in dem eine Welt imaginiert wird,
die vollstaendig digitalisiert wird,

in der die Roboter
alle leidigen Aufgaben uebernehmen

und die Menschen wie so Riesenbabys
in so aehnlichen Sesseln wie hier

sitzen und von Ort
zu Ort gekarrt werden

und voellig passiv von dieser
Technologie uebermannt werden.

Und dieser ... regressive Modus

unserer falschen Erwartungen

bringt uns fuer die konkrete Debatte
natuerlich gar nichts.

Sie haben gesagt, Menschen
werden nie ersetzt werden koennen.

Sie bringen da drin huebsche Beispiele
von Unterhaltungen,

die Sie mit Social Bots fuehren,
die dann eher ...

recht duerftige Antwort geben,
recht leicht zu erkennen ist,

dass diese Social Bots
eben keine Menschen sind.

Aber es gibt da auch schon
ganz gut funktionierende Programme,

gerade im medizinischen
und sozialmedizinischen Bereich,

wo Studien gezeigt haben, dass gerade
Menschen mit geringem Einkommen,

aus geringen Einkommensschichten,
mit schlechter Bildung,

sehr gut ansprechen drauf,
weil die Schamgrenze niedriger ist.

Es ist 100 Mal leichter,
einer Maschine oder jemandem,

der sich mehr Zeit nehmen kann
als ein Arzt,

eine bloede Frage zu stellen,
die einem unangenehm waere,

einem Arzt zu stellen,
der einem leiblich gegenuebersitzt

und bei dem die Uhr tickt.

Also, so klar ist die Grenze
dann doch nicht, oder?

Ob man nicht auch viele Dinge
sehr gut ersetzen koennte.

(Werthner:) Was mir am Buch gefaellt,
ist, dass es positiv ist.

Dass man sagt,
es ist nicht entweder oder,

sondern wir sind, wenn man nicht nur
auf die Kuenstliche Intelligenz geht -

aber es stimmt, man muss
"Intelligenz" vorsichtig verwenden -,

in der generellen Entwicklung
der Informatik an einer Kreuzung,

wo wir ueberlegen muessen,
in welche Richtung.

Das ist die Ideologie
von Silicon Valley,

weltweite Netzwerke,
Monopole,

es geht um die Frage der Regulierung
und Zerschlagung von Monopolen.

Es geht um Ueberwachung,
Datenschutz, auch in Oesterreich:

Was erlaub ich?
Erlaub ich Bundestrojaner?

Das heißt alles
digitaler Humanismus.

Insofern muss man sich
diesen Fragen positiv annaehern.

Dass manchmal ein Softbot
ein anonymes Programm, einfacher

oder fuer jemanden,
der dort ist, besser ist,

das ist ...
dann soll man's einwenden.

Das sagt eher was aus

ueber die Beschraenktheit
der menschlichen Kommunikation.

Wenn das ein Programm
unter dem Aspekt besser kann,

und ich bin eher geneigt,
etwas ueber mich zu sagen,

dann seh ich das
gar nicht so negativ.

Die Frage ist: Welche Mystifizierung
betreib ich damit?

Kurz zu Softbots:

Es gibt die Geschichte
von Joseph Weizenbaum,

Kuenstliche-Intelligenz-Forscher
am MIT,

deutscher Abstammung.

Jetzt wurde in Berlin
das Weizenbaum-Institut gegruendet,

wo sie sich mit den Fragen
der Geistes-/Sozialwissenschaft

und Informatik
auf Forschungsebene beschaeftigen.

Der hat das Programm
"Eliza" entwickelt.

Sie kennen das wahrscheinlich alle.

Das ist in den 70er-/80er-Jahren
in Basic, einer trivialen Sprache,

entwickelt worden.

Das simuliert einen Psychoanalytiker.

Im Wesentlichen
wie die Softbots jetzt,

die Sie da beschreiben,

drehen sie die Fragen
oder die Antworten um,

und wenn er nicht mehr weiß,
dann fragt er:

"Du hast ein Problem
mit deiner Mutter?"

Das ist ein relativ
triviales Programm,

das hat 300, 400 Zeilen.

Und es hat den Effekt gehabt -
insofern ist es ein altes Phaenomen -,

dass die Sekretaerin Joseph Weizenbaum
aus dem Zimmer geschickt hat,

wenn sie sich mit dem Programm
ueber Tastatur unterhalten hat.

Weil sie gesagt hat:
"Ich rede mit dem Programm,

das versteht und analysiert mich.
Das geht dich nichts an."

Hat aber gewusst, dass der Weizenbaum
das Programm geschrieben hat.

Indirekt war es eine Kommunikation
des Programmierers Weizenbaum

mit seiner Sekretaerin ueber
ihre psychoanalytische Situation.

Solang er nicht anwesend war,
war's leichter fuer sie.

Ja, wenn er weg war,
hat sie sich fuer sich selbst ...

Weizenbaum hat gezeigt,
wie man mit wenigen trivialen Dingen

bereits einen großen
Bambam machen kann

und einen Mythos aufbauen kann.

Einige Softbots - wir haben
einige solche Arbeiten an der TU,

auch Dissertationen -

zeigen einerseits die Maechtigkeit
in der analytischen Betrachtung,

bei statistischen Analysen,

aber null in der intentionalen,
in der Verstaendnisebene.

Also wir simulieren Kommunikation
ohne Kommunikation.

Es erklaert, warum der Psycho...
aeh, der Analysand

so liegt, dass er wegschaut
vom Psychoanalytiker, nicht?

(Nida-Ruemelin:) Genau.
- Bitte.

In der Tat,
es ist ein hochinteressantes Thema.

Ich bin bei einem EU-Projekt
beteiligt, RoboLaw,

finden Sie, wenn Sie es suchen.

Es ging darum,
Richtlinien fuer Europa zu entwickeln,

fuer den Umgang mit Robotik.

Da haben wir uns angeschaut,
wie das in Japan aufgenommen wird,

im Pflegebereich.

Sehr viele alte, pflegebeduerftige
Japaner und Japanerinnen

sind voellig einverstanden,

akzeptieren Pflegeroboter.

Die kommen teilweise auch bei uns
zum Einsatz, aber in geringem Umfang.

Der Hintergrund ist auch der,
dass in der japanischen Kultur

das Sich-nahe-Kommen noch staerker
als unangenehm empfunden wird.

Und die Pflegevorgaenge
sind zum Teil so.

Jetzt kommt das Interessante:

Viele sagen, je humanoider
die Pflegeroboter auftreten,

also Stimme ...
unter Umstaenden mit zwei Augen ...

Da fragt man sich, Ihr Metier:

"Um Himmels Willen!
Warum brauchen die zwei Augen?"

Das ist natuerlich nicht funktional.

Umso unheimlicher ...
Als unheimlich wird das empfunden.

Das passt ja gut zu Freud
und eigentlich auch zu Kant.

Dieses Unheimliche, ja?

Ich wuerde sagen,
das ist ein Thema,

das unbedingt in der Robotik,
in der Roboterentwicklung,

eine Rolle spielen sollte.

Wollen wir wirklich
das moeglichst Humanoide?

Und warum eigentlich?

Oder wollen wir
bestimmte Funktionalitaeten

und sollten uns darauf kaprizieren?

Es gibt wunderschoene Filmchen,
finden Sie auch,

und Firmen, fuer die wir jetzt
nicht Werbung machen wollen,

die zeigen,
dass fast tonnenschwere Roboter

Handstand-Ueberschlag koennen
unterdessen, ohne umzufallen,

oder sich auf schiefen Schneeebenen
bewegen, zweibeinig,

und ausrutschen
und nicht hinfallen.

Sag ich: "Um Himmels Willen!
Wozu die Mittel fuer sowas einsetzen?"

Das ist rausgeschmissenes Geld
und geht in Silicon-Valley-Richtung.

Naemlich zu simulieren,
wir haben jetzt hier Homo Deus.

Ein Bestseller - wir werden zu Gott,

wir erschaffen uns
beseelte Wesen, die so sind wie wir.

Das ist keine
vernuenftige Zielsetzung.

Die Wirtschaft hat das ja
teilweise schon erkannt.

Dieses "Uncanny Valley",
so das Stichwort,

die erkannt haben,
wenn es zu menschenaehnlich ist,

dass ein unheimliches Gefuehl
beim Betrachter entsteht.

Das heißt, es ist menschenaehnlich
aber doch nicht so richtig.

Das geht ja in manchen ...
- .. in manchem wieder ab davon.

.. wieder davon ab, aber ...

Der Punkt ist, in der Kommunikation
haben wir ein Recht zu erfahren:

Wer ist das Gegenueber,
mit dem ich kommuniziere?

Ich behaupte mal,
wenn wir ...

.. eine Psychosession haetten
hinter einem Vorhang,

und die laeuft wahnsinnig gut,

und der Psychiater fragt uns
wirklich genau die richtigen Fragen,

und ich oeffne mich und weine

und bin wirklich gelaeutert,

und dann sagt man mir,
das war ein Computerprogramm -

ich bin mir nicht sicher, das heißt:
doch, ich bin mir ziemlich sicher,

wie wir uns fuehlen wuerden.

Ich habe mich mitgeteilt, ich hab
meine Seele offenbart einem Programm,

Das ... Wir wuerden uns ...

Mir faellt kein schoenes Wort ein
fuer das, was ich sagen moechte.

Getaeuscht, betrogen.
- Getaeuscht, ja.

Sehr betrogen.
Das waer kein gutes Gefuehl.

Wir kommunizieren nicht
mit einem Roboter.

Das tun wir nicht.

Wir Menschen haben
aber ein Recht darauf.

Eine komplexe Kommunikation.

Nicht: Wo find ich die naechste Bar?

Aber, damit ich ein Programm hab,

das den Psychoanalytiker
zu 100 Prozent simulieren koennte,

muesste ich das ganze Weltwissen
in Regeln abbilden koennen.

Das ist fast axiomatisch unmoeglich.
- (Nida-Ruemelin:) Seh ich auch so.

Aber es gibt Projekte
an der University of Austin,

das Projekt Cyc.

Der hat 40.000 oder 50.000 Regeln
aufgestellt mit Fakten ueber die Welt.

Das war ein Riesenprojekt
und ist sozusagen nicht fertig.

Er kommt drauf, dass die Regeln
sich immer wieder veraendern.

Er muss mit Widerspruechen arbeiten,
mit multimodaler Logik.

Also, es wird nicht einfach.

Daher ... ist die Frage:
A, Wie wuerde ich mich fuehlen?

Ich wuerde mich schlecht fuehlen.

Aber zweitens glaube ich nicht,
dass das Szenario eintreten wird,

weil wir die Summe dieser Welt
nicht in einfachen Begriffen,

Regeln, Ableitungen, Implikationen
beschreiben koennen.

Wir koennen sie auch nicht,
wenn ich statistisch lerne,

von unten als Korrelationen zwischen
gelernten Konzepten darstellen.

Das ist eigentlich nicht moeglich.

Daher hab ich die Angst nicht,

dass Sie sich einmal fuerchten muessen,
dass Ihr ...

Ich fuerchte mich nicht.
- .. Software ...

.. sich mit Ihnen unterhalten.

Also in dieser Komplexitaet.

Wenn man einschraenkt,
vielleicht.

Wovor sich viele schon fuerchten,
auch wenn's abstrakt ist,

ist die Monopolisierung.
Die findet im IT-Bereich stark statt.

Google, Airbnb, you name it,
Amazon.

Einerseits fette Gewinne, wir kennen
die Geschichte der Steuervermeidung,

andererseits einfach eine Macht,
die gebuendelt wird,

das wollen wir grundsaetzlich nicht.

Deshalb gibt's
Kartellrecht et cetera.

Aber warum, haben Sie eine Theorie,
gibt es gerade im IT-Bereich

so eine Konzentration
von uebermaechtigen Konzernen?

Die Theorie gibt es schon lang,
die Theorie der Plattformoekonomie.

Die ist bekannt,
auch aus Preferential Attachment.

Die, die groß sind, werden groeßer.

Wenn ich nicht antimonopolistisch
einschreite, habe ich Monopole.

Noch dazu haben diese Firmen
keinen realen Wert.

Die haben keine ...
- (Lyon:) Das gab's ja auch davor.

Bei Computerfirmen selber.

Aber, was Sie wirklich haben ...

Der Wert ist nicht die Infrastruktur,

sondern der Wert
ist das Kundennetzwerk

und die Information ueber die Kunden.

Manchmal nicht, oder?
Im iPhone-Fall zum Beispiel.

Ja. Google ist ueberhaupt
die Spitze dessen.

Google veredelt die Information,
die wir Google geben,

und verkauft sie uns zurueck.

Das heißt, Google macht Information
mit unserer Information,

die wir umsonst hergeben,

und verkauft sie uns zurueck,
aber indirekt ueber Werbemaßnahmen.

Das heißt, es ist ueberhaupt
fast ein Perpetuum mobile.

Je mehr wir hineingeben,

umso mehr kann Google
die Information veredeln,

daraus einen zusaetzlichen
Wert schaffen

und das dann Werbekunden verkaufen.

Ich glaub, dass Europa
zu lange geschlafen hat.

Ich glaub, dass wir im Software-
und IT-Bereich zunehmend aufwachen.

Europa steht vor der Herausforderung
einer weltpolitischen ...

Die hat militaerische, politische,
oekonomische ... alle Dimensionen.

Und insofern ist,
glaube ich, die Frage,

die im Buch angeschnitten wird und
die wir im Manifesto unterstreichen,

ist, dass wir einen autonomen
Weg der Entwicklung brauchen.

Nicht der Selbstkritik, dass wir uns
zerfleischen und aufloesen,

sondern einen prosperierenden,
einen zukunftsorientierten Weg.

Ich wuerde gern zu diesem Punkt
noch was anmerken.

Es hat ja eine erstaunliche
kulturelle Veraenderung stattgefunden.

Moeglicherweise
findet wieder eine statt.

Wenn ich jetzt aus Deutschland
eine Sache einfuegen kann:

Da gab's das Volkszaehlungsgesetz,

einstimmig
im Bundestag verabschiedet,

es ging um Volkszaehlung:

Wie viele Menschen wohnen
in welcher Wohnung und welchem Haus?

Das wurde dann nach massiven
Protesten der Bevoelkerung

als verfassungswidrig verworfen.

Das ist die Geburtsstunde gewesen

eines neuen Individualrechts
in Deutschland,

naemlich das der informationellen
Selbstbestimmung.

Das steht nicht im Grundgesetz.
- Des Nicht-gezaehlt-Werdens?

Ja. Und der Hintergrund
war ein Aufstand in der Bevoelkerung.

Das Bundesverfassungsgericht hat sich
das zu eigen gemacht und gesagt:

"Das ist unvereinbar
mit grundrechtlichen Normen."

Ein paar Jahrzehnte spaeter
ist es nicht der Staat, der zaehlt,

sondern es sind Internetgiganten,
die nicht nur zaehlen,

wie viele Leute
in einer Wohnung leben,

das waere ja voellig harmlos.

Sondern die zaehlen, wie oft ich
welche Seite aufgerufen habe usw.

Sie haben ja vorhin ein Beispiel
aus Ihrem Leben gebracht.

Es gab zunaechst einmal, jedenfalls in
den USA, ueberhaupt keine Gegenwehr.

Liegt es daran, dass es jetzt nicht
der Staat ist,

sondern ein Unternehmen?

Vertrauen wir einem Unternehmen
mehr als dem Staat?

Das ist auch erklaerungsbeduerftig.

Jetzt kommt das Interessante:

Wir waren zufaellig eingeladen
an der University of Virginia,

da war gerade diese Debatte
um Facebook und Cambridge Analytica

und die, ich weiß nicht,
70 Millionen Nutzerdaten,

die offenbar genutzt wurden,

vielleicht
mit russischer Einflussnahme.

Oder russischer Geheimdienst-
einflussnahme,

um den amerikanischen Praesident-
schaftswahlkampf zu beeinflussen.

Und auf einmal, potz Blitz,
wird in den USA darueber diskutiert,

haben vielleicht doch die Europaeer
mit ihrer Skepsis recht gehabt?

Haetten wir vielleicht fruehzeitiger
... usw.

Moeglicherweise kommen wir jetzt
in eine Phase rein,

deshalb moecht ich das ausdruecklich
unterstuetzen,

in der wir die Moeglichkeit haben,

eigene Regeln zu bestimmen.

Und zu diesen Regeln koennte gehoeren,

dass es schlicht unzulaessig ist,
in dieser Weise,

natuerlich durch ... abgehakte
Vertraege,

die wir dann so mal schnell eingehen,

obwohl wir erst mal 70 Seiten
haetten lesen muessen,

unsere persoenlichen Daten
fuer Marketingzwecke preiszugeben.

Da ist der Gesetzgeber gefragt.

Die einzige Wahl ist,
es nicht abzuhaken

und auch das Produkt nicht zu nutzen.
- Genau, aber das heißt heute,

dass man sich marginalisiert
in manchen Bereichen.

Facebook ist ja unterdessen -
auch Twitter, Instagram usw. -,

das sind Formen der Interaktion
und Kommunikation.

Da kann man immer sagen:
Ja, ihr muesst ja nicht mitmachen.

Natuerlich MUSS man nicht mitmachen,
aber das ist so aehnlich

wie die Eremiten frueher, man zieht
sich aus der Gesellschaft zurueck.

Frau Weidenfeld,
Sie schreiben in Ihrem Buch,

Digital Immigrants unterrichten
Digital Natives.

Also da ist voellig klar,
dass das keinen Sinn macht.

Und wenn man das,
was wir gerade gehoert haben,

naemlich diese Vorfaelle
auch mit Cambridge Analytica,

in einen Satz zusammenfassen muessten,

kann man den schoenen Satz zitieren:

"If it's free, you are the product."
- Richtig.

Ist es das, was wir auch
dann unterrichten muessen,

naemlich den Digital Natives
auch unterrichten muessen?

Gilt's jetzt quasi ...

Ist das auch eine Intention
Ihres Buches,

die Menschen soweit quasi
drauf aufmerksam zu machen,

hier nicht anzuhaken,

etwas mehr auf ihre Privatsphaere
zu achten?

Ist das eine individuelle
Bringschuld?

Ja, ich denke ...
wie schon gesagt wurde,

das Problem ist,
dass diese große Infrastruktur

von den Unternehmen gelegt wurde.

Was nicht haette passieren duerfen.

Unsere Autobahnen
wurden ja auch nicht

von Privatunternehmen finanziert.

Jetzt ist es einmal geschehen.

Es gibt diese wunderbare Idee
einer individuellen ...

.. das jeder zum Beispiel
seine Informationen verkauft

an Google.

Ja?

Das ist nicht unsere Idee,
sondern ...

(Nida-Ruemelin:) Ja, das wird
diskutiert.

Aber das waere eine Revolution.

Auf einmal muessten sie sehr viel Geld
ausgeben und ueberlegen,

ob das sinnvoll ist.

Denn sozusagen das Rad
wieder zurueckzudrehen

und zu sagen, man zieht sich raus,
das geschieht zwar ...

Meine 15-jaehrige Tochter ...

.. hat uns vor ein paar Wochen
gesagt,

sie wird sich jetzt bewusst,
was fuer ein Schaden dieses ...

.. I-Phone, diese sozialen Medien ...

Welchen Schaden sie sozusagen
moeglicherweise davongetragen hat.

Sie ueberlegt jetzt, auf ein ganz
kleines Handy umzusatteln -

damit ist sie nicht allein.
- Aus Urzeiten.

Wobei auch das eben schwierig ist,
wenn sie in Kontakt bleiben will.

Weil man teilweise mit diesen SMS
nicht mehr durchkommt,

weil die ueber Internet laufen
usw.

Das hat Apple ganz geschickt gemacht.

Also die Idee dieser Abgabe
waere eine politische Loesung.

Wir brauchen politische Loesungen.

Es ist natuerlich einfach, zu sagen,
hier, die Gesellschaft soll's loesen.

Da braucht's die Politik.
- Aber wenn ich zum Thema Bildung

noch was ergaenzen darf:

Ich glaube in der Tat,
die Vorstellung,

digitale Kompetenz und Bildung
bestehen darin,

dass wir jetzt die Stunden, die
die Kinder und Jugendlichen

ohnehin vorm Display verbringen,

noch mal um vier Stunden
in der Schulzeit zu verlaengern,

das kann nicht die Loesung sein.

Das geht einfach
in die falsche Richtung.

Der entscheidende Punkt -

und insofern Aktualitaet
des Bildungshumanismus ist:

Wir haben die traditionellen
Gatekeeper verloren

oder weitgehend eingebueßt,

in den Social Media spielen sie keine
oder fast keine Rolle mehr.

Das heißt, es muss an die Stelle
dessen etwas anderes treten,

naemlich Urteilskompetenz.

Welchen Quellen kann ich vertrauen,
welche Argumente sind plausibel?

Das heißt, die alte Idee
der eigenstaendigen Urteilskraft

ist heute viel wichtiger,
viel relevanter als frueher.

Und genau das waere digitale
Kompetenz.

Nicht so sehr,
den Kindern klarzumachen ...

Nicht das Programmieren beibringen,
sondern den Umgang ...

Beim Programmieren sind wir
vielleicht nicht ganz einer Meinung.

Ich hab selber programmieren gelernt,
um mit den lausigen Softwaresystemen

in den 80ern und 90ern umzugehen,

aber das ist nicht wirklich das Ziel
digitaler Bildung.

Sondern umzugehen mit der neuen
Situation.

In der Form,
in der Daten vermittelt werden,

rational und kontrolliert umzugehen.

Umfragen zeigen, dass ausgerechnet
die Millennials, die Digital Natives,

sagen, sie haben ein Problem
in der Kontrolle ihres Umgangs

mit diesen digitalen Tools -
das ist auffaellig.

Das sollte einen hellhoerig machen:
Da laeuft was schief.

Erlauben Sie mir noch eine Frage,
naemlich ...

Fuer manche ist es ein feuchter Traum,
fuer andere eher ein Albtraum:

der Transhumanismus.

Sie schreiben,
der ist die Konkretisierung

eines uralten Menschentraums,

naemlich sich ueber die Conditio humana
hinwegzusetzen.

Alle Begrenzungen der Menschennatur
zu sprengen,

uebernatuerliche Kraefte
und Faehigkeiten zu entwickeln.

Das klingt, als wollten wir
Sterblichkeit nicht akzeptieren.

Na ja, solche Stimmen
gibt's nicht nur,

das ist Teil dieser Idee,
wir ueberwinden jetzt all das,

was uns Menschen beschraenkt.

Wir sprengen die Grenzen
der Intelligenz

durch Computerbrain ... Interfaces.

Wir entwickeln Cyborgs,

sie also gewissermaßen
ganz neue Sensoriken haben.

(Lyon:) Wir pimpen uns.

Wir erfinden den Menschen
gewissermaßen neu.

Wir werden zu Gott - es gibt sogar
einen Bestseller mit diesem Titel.

Wir werden zu Gott, Homo deus.

Diese Ideologie, die da drinsteckt,
die eine lange Vorgeschichte hat,

die in der Gnosis der Antike
schon mal eine Rolle spielte,

was das Christentum
den Glaeubigen verspricht,

realisieren wir auf dieser Erde.

Ja?

Das hat eine merkwuerdig
enge Verbindung

in dieser doch immer noch ...

.. teilweise puritanisch gepraegten
US-Kultur jetzt hervorgerufen.

Und ich glaube,
es waere ganz gut,

wenn gewissermaßen mit ... einer
Orientierung an Werten der Humanitaet,

des sozialen Umgangs, der
informationellen Selbstbestimmung,

der auch politisch-demokratischen
Gestaltbarkeit

Europa dem chinesischen Modell der
staatskontrollierten Digitalisierung

und dem Silicon-Valley-Model

der kommerziell getriebenen
Digitalisierung

ein Drittes entgegenstellt.

Naemlich das der politisch gestalteten
technischen Entwicklung

zu menschlichen Zwecken, das ist
die Idee des Digitalen Humanismus.

Dazu haben Sie auch
ein Manifest verfasst.

Ich darf zitieren:

"Decision makers
have to be responsible."

Und ein zweiter Punkt ist auch:

"Universities
have a special responsibility."

Was ist damit genau gemeint?

Und wie sollen gerade Universitaeten,
der universitaere Bereich

da seine besondere Verantwortung
auch uebernehmen?

Universitaeten
sind schon per Definition

fast die einzige gesellschaftliche
Institution,

die neuem Wissen verpflichtet ist.

Sonst ist keine Institution
dazu verpflichtet.

Wir haben auch die Aufgabe
der Reflexion ueber das.

Also wir generieren neues Wissen
und sollen darueber reflektieren.

Das kann nicht die Industrie machen,
auch nicht die Politik,

nur die Rahmenbedingungen.

Insofern haben Universitaeten
eine besondere Aufgabe.

Und - ganz wichtig: Als Staatsbeamte
sind wir nicht "erpressbar".

Wir sind tendenziell
manchmal erpressbar,

wegen Foerdergeldern und Aehnlichem.

Manchmal bekommen wir die Karotte
und laufen Foerderprogrammen nach.

Aber per Definition sind wir frei,
unsere Gedanken sind frei.

Und in dieser spezifischen Situation

haben Universitaeten
eine bestimmte Aufgabe.

Zweitens:
Es ist eine Forschungsaufgabe,

und insofern haben Universitaeten
auch wieder eine Aufgabe -

dass wir die Silos aufbrechen.

Aehnlich wie in Berlin
mit dem Weizenbaum Institut.

Dass wir die Silos zwischen
der TU Wien und der Uni aufbrechen,

zwischen den Fakultaeten hin und her
wechseln und kooperieren.

Und der dritte Punkt ist, dass wir
unsere Curricula entsprechend aendern.

Ich glaub, dass z. B. an der TU Wien
notwendig ist,

geisteswissenschaftliche Faecher
einzubauen.

In der Zeit der Technisierung,
der zunehmenden Automatisierung -

ich sag nicht Intelligenz,
aber zunehmenden Automatisierung,

der Freistellung von physischer
Taetigkeit ist wichtig:

Reflexion, menschliche Werte,
Kreativitaet.

Und da brauchen die Ingenieure,
die formalen Wissenschaften

hier auch die Interaktion
mit den Geisteswissenschaften.

Ich kann mir ein legoartiges
Curriculum vorstellen,

wo man so Basisbausteine hat
und die miteinander kombiniert.

Die Bausteine
muessen genuegend groß sein,

damit's ...
damit man auch Wissen hat.

Es ist wichtig,
nicht nur Methoden,

sondern man braucht
einiges Basiswissen.

Ich muss ein bisschen
ueber Philosophie wissen,

damit ich philosophische Methoden
verwenden kann.

Ich glaub uebrigens auch, dass man ein
bisschen programmieren koennen sollte.

Damit man das auch versteht.

Man muss nicht unbedingt
Computer bedienen koennen,

aber man sollte wissen,
was algorithmisches Denken ist.

Und jetzt mach ich eine Werbung:

Es gibt an der TU Wien
eine permanente Ausstellung,

"Abenteuer Informatik".

Ohne Computer,
mit interaktiven Schautafeln.

Wo man auf 42 Schautafeln
im spielerischen Umgang

Prinzipien der Informatik kennenlernt
und sich damit beschaeftigen kann.

Das ist eine Dauerausstellung,
sie ist immer offen.

Sie sind jederzeit willkommen.

Das ist im Wesentlichen
fuer Schulklassen, aber auch fuer Sie.

Wenn Sie uns besuchen wollen,
kommen Sie.

Außer Wurstsemmel und Trinken
gibt es alles.

Jetzt muss ich
an dieser Stelle auch ...

Sie haben die Geisteswissenschaften
beworben,

das kann ich nur unterstreichen,
wir brauchen sie.

Auch im Hinblick
der digitalen Bildung.

Damit wir diese Kunst,
die ja seit Langem erarbeitet wurde,

naemlich, wie lesen wir Bilder,
wie Narrative,

was erzaehlen uns diese Bilder?

Und vor allem: Wie lesen wir
Metaphern richtig?

Damit es staerker
in den Vordergrund gerueckt wird.

Und damit nicht so ...
falsche Urteile geschehen,

indem wir die Bilder,
mit denen wir bombardiert werden,

als realistische Interpretationen
lesen,

von dem, was uns erwarten wird.

Und vielleicht, wenn wir die Bilder
besser und genauer lesen wuerden,

wuerden wir auch nicht

auf diese transhumanistischen
Fantasien hereinfallen.

Die auch ... einen Ursprung
in der Literatur, im Mythos haben.

Und um jetzt wieder Freud
zu zitieren,

diese transgressiven ...

Dieser Traum von der Allmacht,

der hinter diesen transhumanistischen
Fantasien lauert -

wir haben von Cyborgs gesprochen ...

Nun, er lokalisiert das ungefaehr ...

.. vor allem bei den Jungs
im praeoedipalen Alter,

das ist ein Rueckfall!

Eine Regression,
der kindliche Glaube,

in die Unverwundbarkeit,
in die Allmacht.

Das ist das,
mit dem wir zu tun haben.

Und wenn wir genau die Bilder
anschauen und verstehen,

was sie uns sagen, dann wuerden wir
uns nicht diesen Fantasien hingeben.

Sondern koennten positive eigene
entwickeln?

Ja, und koennten
diese wunderbare Technik,

die so unglaublich viel Gutes
tun kann,

in den Entwicklungslaendern,
in der Medizin, wie Sie sagten,

ja unglaublich gut nutzen.

Wir koennten uns endlich darauf
konzentrieren, anstatt ...

.. uns kindlichen Fantasien
hinzugeben.

Ja, unnuetze Dinge zu tun.

Nathalie Weidenfeld, Hannes Werthner,
Julian Nida-Ruemelin,

ganz herzlichen Dank.

Danke Ihnen ganz herzlich
fuer Ihre Aufmerksamkeit.

Mir bleibt, Ihnen noch einen
vergnueglichen Abend zu wuenschen.

Untertitel: AUDIO2

Wiener Vorlesung "Ethik im Zeitalter künstlicher Intelligenz"

Wiener Vorlesung zum Thema "Ethik im Zeitalter Künstlicher Intelligenz - Verleihung des Bruno-Kreisky-Preises an Julian Nida-Rümelin und Nathalie Weidenfeld"; im Festsaal, Rathaus

Länge: 42 Min. 04 Sek.
Produktionsdatum: 2019
Copyright: ORF III

Aktuelle Videos

wien.at TV Kanäle