Wahrheit, die uns keiner mehr erklären kann
Komisch sei das: Relevante Wahrheitssuche, vor allem dann, wenn sie in Technik gegossen werde, wenn die Wahrheit aus den Wissenschaften in die Gesellschaft falle und dort Veränderungen verlange, dann werde es interessant. „Und dann ist dieser Platz hier [Urania] der Schauplatz für Schlachten um die Vernunft und den Verstand, für die Argumente, eben nicht für die Transparenz – Sie kriegen keine Wahrheit in Schlagzeilen.“ Man brauche die Zeit und den Raum, um solche Auseinandersetzungen so zu führen, dass tatsächlich alle rausgingen und sagten: „Aha! Das habe ich jetzt richtig verstanden – und dann möglicherweise daraus Konsequenzen ziehen.“ Das hier sei eine Insel, ein Raumschiff, draußen ströme die Welt vorbei, hier werde nachgedacht, vielleicht vorher nachgedacht und nicht einfach irgendetwas gemacht. „Entschuldigen Sie den kleinen Ausrutscher ins Politische, aber ein Plakat wie ‚Digitalisierung first – Bedenken second‘ ist ein Angriff auf meinen Verstand.“ Wenn den Menschen eines vom Tier unterscheide, dann die Fähigkeit, im Vorhinein nachzudenken – bedenke Deine Handlungen vom Ende her! „Schauen wir uns an, wie wir mit Wahrheiten umgehen, wenn wir sie überhaupt nicht mehr erfahren.“
Die Automatisierung in digitalisierten Geräten werde langfristig, wenn wir immer mehr Entscheidungen der künstlichen Intelligenz überließen – zu einem merkwürdigen Phänomen führen, vor dem wir in dieser Welt zum allerersten Mal stünden: „Auf der Suche nach Wahrheit – wo wir schon in den Wissenschaften einen sehr eingeschränkten Wahrheitsbegriff haben – was für die Entscheidung der Gesellschaft, ob etwas ein großes oder kleines Risiko ist, natürlich ein Problem ist – entwickeln bzw. nutzen wir inzwischen Algorithmen, die uns gar nicht mehr mitteilen, wie sie eigentlich zu einer Problemlösung gekommen sind.“ Das seien neuronale Netze – da gebe es eine Eingangsschicht, da komme das Signal rein – und unten komme das Signal wieder raus. Dazwischen gebe es sogenannte versteckte Schichten – Hidden Layers – in denen treffe der Algorithmus, je nachdem, ob es ein sogenannter Deep Learning Algorithmus sei (also einer, der mit sich selber praktisch „spielen“ könne und dabei lerne) auf völlig unbekannte Art eine Entscheidung. Das bedeute, dass wir in Zukunft Problemlösungsverfahren hätten, von denen wir nicht mehr wüssten, wie sie funktionierten. Lesch: „Wir hätten eine Wahrheit gefunden, die uns keiner mehr erklären kann.“
Dieses Problem beschäftige uns schon die letzten 20-30 Jahre und werde uns noch die kommenden Jahrzehnte beschäftigen. Denn wir bräuchten, um auf der Suche nach der Wahrheit Risiken für unser Leben zu identifizieren, wissenschaftliches Wissen. Das beginne bei den allereinfachsten Risiken wie der Radioaktivität, die man nicht sehen könne, aber auch bei den verschiedenen chemischen Stoffen, die uns schwer schädigen könnten – „ich weiß gar nicht, wie ich drauf komme“ – dabei sei es ein Problem, dass die Gesellschaft über dieses Wissen gar nicht verfüge. Aber das sei nur die halbe Wahrheit, denn bei der Identifizierung des Risikos könne die Wissenschaft das anbieten, wozu sie überhaupt in einer Gesellschaft als Institution geschaffen worden sei, nämlich Ursachen und Wirkungszusammenhänge zu erhellen. Aber wie würden diese Risiken gedeutet und vor allem, wie bewertet? „Risiko bedeutet eine Zukunft, die nicht eintreten soll, nur: dafür brauche ich einen positiven Zukunftsbegriff, nämlich von einer Zukunft, die eintreten soll. Da sei es ein Problem, wenn eine Gesellschaft sich zunehmend rein ökonomischen Zielen hingebe, anstatt sich zu überlegen, „wie wollen wir eigentlich leben, was soll eigentlich werden im Jahr 2050?“