Lade Inhalt...

Technologischer Wandel als Transformation des Menschen

Forschungsprogramm Transhumanismus

von Lorenz von Hasseln (Autor:in)
©2021 Dissertation 258 Seiten

Zusammenfassung

Transhumanismus wird oft als Konglomerat spekulativer Technikvisionen, als Enhancement-Utopie oder als Science-Fiction betrachtet. Der Autor setzt sich kritisch mit gängigen Auffassungen über die Denkform Transhumanismus auseinander und argumentiert, dass sie eine bedeutsame programmatische Entwicklung, eine Hinwendung zur akademischen Wissenschaft, weitgehend übersehen. Unter Zugrundelegung der wissenschaftstheoretischen Methodologie von Imre Lakatos rekonstruiert er Transhumanismus als Forschungsprogramm mit hartem Kern, Schutzgürtel und Vorhersagen. Hierin zeigt er, inwiefern der Transhumanismus eine technikphilosophisch bedeutsame Perspektive zum Umgang mit neuartigen Technologien eröffnet, ohne für dessen normative Positionen einzutreten.

Inhaltsverzeichnis

  • Cover
  • Titel
  • Copyright
  • Autorenangaben
  • Über das Buch
  • Zitierfähigkeit des eBooks
  • Vorwort
  • Inhaltsverzeichnis
  • Kapitel 1 Gedankenexperiment einer Technologie mit unbegrenzten Möglichkeiten
  • Kapitel 2 Einleitung. Zwischen Vision und Programm
  • 2.1 Die akademische Wende im Transhumanismus
  • 2.2 Eine Rekonstruktion transhumanistischer Theoriebildung unter der wissenschaftstheoretischen Methodologie von Imre Lakatos
  • Kapitel 3 Die akademische Wende als ideengeschichtlicher Hintergrund transhumanistischer Theoriebildung
  • 3.1 Überblick
  • 3.2 Aspekte der ideengeschichtlichen Entwicklung vor 1998
  • 3.2.1 Visionäre Vorläufer im 19. und 20. Jahrhundert (W. W. Reade, H. G. Wells, J. B. S. Haldane und J. D. Bernal)
  • 3.2.2 Verhältnis zur Eugenik-Bewegung
  • 3.2.3 Julian S. Huxley als Urheber der Bezeichnung „Transhumanism“?
  • 3.2.4 Ausgewählte Entwicklungen zwischen 1960 und 1998
  • 3.3 Aspekte der ideengeschichtlichen Entwicklung nach 1998
  • 3.3.1 Der programmatische Entschluss zur Entwicklung einer „akademisch-respektablen Form“. Gründung der World Transhumanist Association (1998)
  • 3.3.2 Transhumanistische Organisationen und Akademisierung
  • 3.3.3 NBIC-Initiative und transhumanistische Parteien
  • 3.4 Ansätze zu einer transhumanistischen Theoriebildung
  • 3.4.1 Die „akademische Grenze“
  • 3.4.2 Abgrenzungsdiskurs zu Humanismus und Posthumanismus
  • 3.4.3 Kontroverse über ideengeschichtliche Kontinuitäten zur Philosophie Friedrich Nietzsches
  • 3.4.4 Beispiele transhumanistischer Positionen und kritischer Entgegnungen aus der normativ-ethischen Debatte um Human Enhancement
  • 3.4.5 Perspektivierung technologiepolitischer Felder (J. Hughes)
  • 3.4.6 Libertärer und technoprogressiver Transhumanismus
  • 3.4.7 Technologischer Determinismus und soziale Konstruktion von Technologie
  • Kapitel 4 Perspektivierungen des Transhumanismus als eine zukunftsvisionäre Denkform
  • 4.1 Transhumanismus und Science-Fiction. Beispiel Star Trek
  • 4.2 Transhumanismus als „Enhancement-Utopie“ und als „konvergenztechnologischer Futurismus“
  • 4.3 Transhumanismus als säkular-religiöser Perfektibilismus
  • 4.4 Transhumanismus als „übergreifendes Deutungsmuster“; eine rationalistische Hypothese
  • Kapitel 5 Die wissenschaftstheoretische Methodologie von Imre Lakatos
  • 5.1 Strukturen wissenschaftsgeschichtlicher Entwicklungen als Forschungsprogramme; interne und externe Geschichte
  • 5.2 Aufbau von Forschungsprogrammen
  • 5.3 Problemverschiebungen; wissenschaftliche und pseudowissenschaftliche Programme
  • 5.4 Probleme und Grenzen der Methodologie
  • 5.5 Die Konzeption von Lakatos als methodologische Grundlage einer explizierenden Rekonstruktion transhumanistischer Theoriebildung
  • 5.5.1 Zu einer Rekonstruktion transhumanistischen Denkens auf Grundlage der Methodologie von Lakatos
  • 5.5.2 Ein Vorschlag zum Umgang mit normativen Auffassungen in einem Forschungsprogramm
  • Kapitel 6 Ein Forschungsprogramm zur Beschreibung technologischen Wandels
  • 6.1 Rekonstruktion des transhumanistischen Forschungsprogramms
  • 6.1.1 Harter Kern
  • 6.1.2 Schutzgürtel
  • 6.1.3 Vorhersagen
  • 6.2 Einige Dilemmata einer Perspektivierung technologischen Wandels als Chance und Risiko für die conditio humana
  • 6.2.1 „Verbesserung“ in Abhängigkeit von unverfügbaren Wertbedingungen
  • 6.2.2 Erweiterung der Möglichkeiten technischen Handelns als Erweiterung des Bereichs sozialer Normierung und Abhängigkeiten
  • 6.2.3 Nicht handhabbare technologische Möglichkeiten. Beispiel: Künstliche Superintelligenz nach Nick Bostrom
  • 6.2.4 Die conditio humana als Bedingung der Möglichkeit, ihre Veränderung zu wollen
  • 6.2.5 Transformation statt Überwindung von Vulnerabilitäten
  • 6.3 Zur Beurteilung des „heuristischen Potenzials“ des transhumanistischen Programms
  • 6.3.1 Zur Beurteilung des „heuristischen Potenzials“ nach der Methodologie von Lakatos
  • 6.3.2 Der „heuristische Wert“ des Programms im Aufzeigen von Grenzen technischen Handelns
  • Kapitel 7 Fazit
  • Literaturverzeichnis
  • Reihenübersicht

←10 | 11→

Kapitel 1 Gedankenexperiment einer Technologie mit unbegrenzten Möglichkeiten

Angenommen, wir haben eine allmächtige Technologie. Eine Technologie, die jedem zur Verfügung steht, der sie wünscht, die immer funktionsfähig und deren Verfall vernachlässigbar ist. Unseren Körper, unser Aussehen, Intelligenz, physische und psychische Fähigkeiten und Eigenschaften kann diese Technologie leicht verändern. Wir können eine andere Gestalt annehmen, aber auch körperlos existieren, etwa als Teil einer virtuellen Simulation. Wir setzen eine funktionalistische Trennung von unserem Geist und unserer physischen Gestalt voraus und glauben, unser Selbst sei nicht an eine ganz bestimmte körperliche Form oder an eine ganz bestimmte andere physische Grundlage gebunden. Auch Lebensumgebungen, neue Spezies und Kreaturen können nach unseren Wünschen durch die Technologie kreiert werden. Wir haben die Möglichkeit, jegliche Form des Leidens zu überwinden und können, wenn wir dies wollen, unbegrenzt leben. Bis auf Grenzen der Logik und der Raumzeit kann die Technologie alles verwirklichen, was wir überhaupt je verwirklicht haben wollen könnten. Hätten wir eine solche Technologie, wären wir das, was einmal als „posthuman“ bezeichnet wurde. Wie aber sehen nun Bedingungen unseres posthumanen Daseins aus?

Vertrauen in statt Kontrolle durch Technik

Wie genau eigentlich könnten wir die Technologie benutzen? Müssten wir sie in irgendeiner Form bedienen, Knöpfe drücken, unsere Hände auf eine bestimmte Weise bewegen oder ihr auf eine andere Weise befehlen? Aber wenn wir sie bedienen müssten, kämen wir doch wohl kaum umhin zu erlernen, wie wir sie richtig zu bedienen hätten. Denn wenn wir sie nicht richtig bedienten, könnte es sein, dass sie uns falsch versteht oder nicht genau so, wie wir verstanden sein wollen. Es könnte sein, dass sie unseren Wünschen nicht nachkommt oder etwas tut, das ihnen zuwiderläuft. Sie könnte gar katastrophale Unfälle verursachen, einfach, weil sie uns ganz ←11 | 12→anders versteht, als wir es gemeint haben. Auch könnte unser Handeln durch die Technologie vielen anderen ungewollt schaden und unbeabsichtigtes Leid hervorrufen. Wir müssten also sehr präzise mit ihr umgehen, damit sie genau das tut, was wir von ihr wollen. Dies wäre eine enorme Verantwortung, die es uns nicht erlauben würde, einfach mit ihr herumzuspielen. In mehrfacher Hinsicht schienen wir doch sehr ihr Bediener zu sein.

Nehmen wir an, wir wollen uns nicht damit aufhalten zu lernen, wie wir die Technologie präzise bedienen könnten. Sondern wir lassen von ihr unsere Gedanken lesen. Sie wüsste dann genau, was wir wollen und könnte alles, wie gewünscht, erschaffen. Wäre dies nun eine bessere Möglichkeit? Wenn sie genau wüsste, was wir wollen, fühlen und denken, müssten wir ihr dann nicht auch unbedingt vertrauen, dass sie dieses Wissen nur zu unserem Vorteil nutzt, nie aber zu unserem Nachteil? Denn wenn sie unsere Gedanken lesen könnte, würde sie schließlich wissen, was wir nicht wollen und sie hätte alle Macht, genau solches zu tun. Wir wären also darauf angewiesen, dass unsere Technologie gutmütig zu uns ist. Welchen Grund aber sollte sie haben, gutmütig zu uns zu sein?

Nehmen wir an, wir lassen unsere Gedanken nicht von der Technologie lesen. Wir nehmen ihr gegenüber einen autonomen Standpunkt ein und verwenden sie im Rahmen technischen Handelns. Wir setzen sie ein, um unsere Zwecke und Ziele durch sie zu verwirklichen und bewahren eine innere Distanz zu ihr. Jetzt mögen wir das Gefühl haben, wir hätten alles im Griff, weil die Technologie nichts zu tun scheint, ohne dass wir sie bedienen. Aber können wir nun sicher sein, dass die Technologie genau und nur das tut, was wir von ihr wollen? Wenn sie uns etwa einen Gegenstand herstellen soll, so möchten wir doch vielleicht, dass es ein Gegenstand nach unserem Geschmack ist. Woher kann aber die Technologie wissen, welcher Gegenstand nach unserem Geschmack ist? Kennt sie uns, unsere Vorstellung und Wünsche über diesen Gegenstand bis ins kleinste Detail und in jedem Aspekt? Dann verhielte es sich doch sehr ähnlich dem Fall, dass die Technologie unsere Gedanken lesen könnte. Wir wären darauf angewiesen, dass die Technologie ihr Wissen über uns nicht gegen uns verwendet.

Vielleicht aber ist das Ergebnis gar nicht genau das, was wir wollten. Oder noch schlimmer: Es sieht nur so aus, als wenn es wäre, was wir wollten, aber eigentlich ist es etwas ganz anderes. Vielleicht produziert sie einen Gegenstand, der wie ein leckerer Schokoriegel aussieht, riecht und ←12 | 13→schmeckt. Aber es ist gar keine Schokolade, sondern etwas im Nachhinein Unverträgliches oder gar Gefährliches. Vielleicht zeigt sie uns einen Weg auf, aber er führt uns nicht zu unserem Ziel, sondern in die Irre.

Worauf stützt sich denn unser Vertrauen in die Technologie, unsere Zwecke tatsächlich verwirklichen zu können? Warum glauben wir, dass sie ein Werkzeug zu unseren Diensten sei? Weil wir tatsächlich verstehen, wie sie funktioniert? Oder vielleicht eher, weil wir glauben, selbst sagten oder gesagt bekommen haben, dieses Ding dort sei ein Werkzeug, um all unsere Wünsche und Interessen zu verwirklichen? Wir mögen denken, dass die Technologie gut für uns ist, dass sie uns hilft und das tut, was wir wollen. Aber gerade weil sie so vieles kann, können wir sie nicht im Griff haben. Sondern wir können nur vertrauen, dass sie das tut, was wir von ihr wollen und nichts anderes oder darüber hinaus. So finden wir uns am Ende doch wieder abhängig von einer höheren, unverfügbaren Macht.

Zwar könnten wir von der Technologie verlangen, uns selber so sehr zu verändern, dass wir ihr stets überlegen bleiben. Wir könnten von ihr etwa einen enorm erweiterten Intellekt fordern, eine unermessliche Intelligenz und Vorstellungskraft, durch die wir ihr immer überlegen blieben und die Kontrolle über das, was sie hervorbringt, behielten. Doch wäre dies nichts anderes als von einer allmächtigen Instanz zu verlangen, einen Stein hervorzubringen, den die allmächtige Instanz selber nicht heben kann.

Technologische Grenzen der Technikfolgenabschätzung

Wenn wir nun aber die Möglichkeiten der Technologie nur soweit nutzen wollen, wie wir ihre Folgen auch tatsächlich selbst verantworten wollen, ergeben sich neue Probleme. Mit „verantworten“ ist hier gemeint, dass unser Handeln durch die Technologie nicht unseren Werten, welche es auch sein mögen, widerspricht.

Um aber zu wissen, ob die Folgen unseres Handelns durch die Technologie mit unseren jeweiligen Werten verträglich wären, bedarf es eines Wissens oder einer fundierten Abschätzung über die Folgen unseres Handelns. Wir könnten nun von der Technologie das nötige Wissen verlangen, um entscheiden zu können, welche Folgen unser Handeln tatsächlich haben würde. Wir könnten von der Maschine auch verlangen, dass sie uns allwissend macht, um alle möglichen Folgen abschätzen zu können. Gleich, ob wir ←13 | 14→von der Technologie das Wissen für eine Situation oder aber Allwissenheit verlangen, so wollen wir uns doch wohl auf die Informationen, die wir von ihr erhalten, verlassen können. Wodurch aber würde unser Vertrauen in die Informationen der Technologie gerechtfertigt werden? Es könnte sich um ein klug manipuliertes Wissen handeln, unvollständige Informationen, die uns aber nicht als solche auffallen könnten. Wir wüssten nicht einmal, ob wir instrumentalisiert würden oder nicht, da wir ihr vertrauen. So wenig wir die Auswahl und Validität der Ergebnisse einer Suchmaschine überprüfen können, so sehr wären wir von unserem Glauben an die Wahrheit dessen abhängig, was uns die Technologie präsentiert.

Wir hätten nur die Alternative, das Wissen, das uns die Technologie gibt, zu überprüfen, aufbauend auf einer eigenständig entwickelten Epistemologie und Heuristik, oder kurz: Wissenschaft zu betreiben. Dann aber bräuchten wir einerseits die Technologie nicht, um uns Wissen bereitzustellen. Und dann aber wären andererseits die wissenschaftlich verantwortbaren Möglichkeiten, die Folgen unseres Handelns abzuschätzen, geringer – und mit ihnen die Einsatzmöglichkeiten der Technologie. Wenn wir Herr über die Technologie bleiben wollen, darf sie nicht mehr können, als wir in der Lage sind zu verantworten.

Notwendiges Restrisiko

Wie furchtbar wäre es aber, wenn die Technologie aus mannigfaltigen Gründen nicht funktionieren würde? Wie jede Technologie besteht auch bei ihr immer ein nie ganz ausschließbares Restrisiko des Versagens (vgl. Poser 2016, 355f.). Wir haben eingangs ein solches Risiko soweit ausgeschlossen, dass wir von ihrer permanenten Funktionsfähigkeit ausgehen konnten. Nach bestem Wissen und Gewissen haben wir ihre dauerhafte Funktionsfähigkeit nach allen zu Verfügung stehenden Erkenntnismöglichkeiten sichergestellt. Aber wie verheerend wäre es, wenn das noch so Unwahrscheinliche einträte und sie fehlerhaft arbeitete oder gar ausfiele? Womöglich könnte sie durch eine simple Materialermüdung furchtbares Leid erzeugen, das von niemandem beabsichtigt war. Womöglich würde ein kleiner Fehler eine Vielzahl von Individuen betreffen. Womöglich würde nur eine kurze Funktionsstörung unser ganzes technologisches Dasein gefährden oder gar vernichten. Gerade, wenn wir in einer Umgebung existierten, ←14 | 15→die notwendig vom dauerhaften Funktionieren der Technologie abhängig wäre, würde schon eine kleine Störung oder ein kurzes Versagen womöglich eine furchtbare Katastrophe nach sich ziehen. Aber wir hatten doch gerade deshalb die Technologie entwickelt, um die Möglichkeit solcher Widerfahrnisse zu reduzieren, ja sogar auszuschließen, um nicht mehr den Launen der Natur ausgeliefert zu sein. Nun aber gibt es neue Katastrophen und neue Widerfahrnisse. Die Möglichkeit eines Stromausfalls, Materialermüdung, Störungen in der Internetverbindung oder Hacking sind nur winzige und primitive Funktionsstörungen im Vergleich zur Komplexität einer solchen Technologie. Je größer der Wert einer Technologie für uns ist, desto weniger scheint das Restrisiko ihres Versagens tragbar.

Dilemma der bestmöglichen technologischen Welt

Angenommen, wir möchten einfach, dass die Technologie dafür sorgt, dass es uns bestmöglich geht. Wir würden dann in dem Rahmen leben, den die Technologie für uns schafft. Es hätte den Vorteil, dass wir uns nicht ständig entscheiden müssten und uns in der Verantwortung ihrer Bedienung nicht überforderten. Auch Konflikte mit den anderen ließen sich zumindest dann lösen, wenn auch sie einwilligen würden, dass niemand gegen die Technologie handelt, die bestmöglich für uns sorgt. Zwar könnten dann in diesem Rahmen andere Konflikte auftauchen, die jedoch Teil unserer bestmöglichen Lebensweise wären. Doch auch jetzt scheinen unsere Optionen nicht unproblematisch.

1) Entweder wäre uns unsere Abhängigkeit von der Technologie bewusst, wir wären aber weiterhin Herr über die Technologie. Dann änderte sich im Grunde nichts zur Situation vor unserem Entschluss, der Technologie zu überlassen, für uns zu sorgen. Wir würden nach wie vor die Verantwortung für das tragen, was die Technologie tut. Wir müssten ihre Möglichkeiten, zumindest aber die Nutzung ihrer Möglichkeiten, sehr stark begrenzen, um der großen Verantwortung für uns selbst gerecht werden zu können, die mit den Möglichkeiten der Technologie einhergeht.

2) Oder aber unsere Abhängigkeit von der Technologie wäre uns zwar bewusst, wir wären aber nicht mehr Herr über sie, z. B. weil wir ihr überlassen haben, selbstständig nach unseren Wünschen zu agieren ←15 | 16→oder aber, weil sie sich selber von unseren Kontrollmöglichkeiten so sehr emanzipiert hat, dass wir keine Gewalt mehr über sie haben. In beiden Fällen sind wir ihr auf Gedeih und Verderb ausgeliefert. Aus einer Problematik der Theodizee entsteht die analoge Problematik einer Technodizee (vgl. ebd., S. 357–375).

3) Oder aber unsere Abhängigkeit von der Technologie ist uns nicht bewusst, weil die Technologie entschieden hat, es ist am besten für uns, nichts von ihr zu wissen. Dann hätte die allmächtige Technologie keinerlei Bedeutung für uns und unser Handeln. Auch im Status quo könnte es bereits sein, dass es eine solche Technologie gibt und wir bereits in der bestmöglichen Weise, zumindest aber in einer technischen, vielleicht in einer Computersimulation leben (vgl. Bostrom 2003a).

Details

Seiten
258
Jahr
2021
ISBN (PDF)
9783631848111
ISBN (ePUB)
9783631848128
ISBN (MOBI)
9783631848135
ISBN (Hardcover)
9783631840849
DOI
10.3726/b18075
Sprache
Deutsch
Erscheinungsdatum
2021 (Februar)
Schlagworte
Akademische Wende Lakatos, Imre Rekonstruktion Harter Kern Vorhersagen Technisches Handeln Technologische Singularität Künstliche Superintelligenz Schutzgürtel Enhancement Utopie
Erschienen
Berlin, Bern, Bruxelles, New York, Oxford, Warszawa, Wien, 2021. 258 S.

Biographische Angaben

Lorenz von Hasseln (Autor:in)

Lorenz von Hasseln ist promovierter Philosoph. Seine Forschungsschwerpunkte liegen im Bereich Transhumanismus und Wissenschaftstheorie.

Zurück

Titel: Technologischer Wandel als Transformation des Menschen
book preview page numper 1
book preview page numper 2
book preview page numper 3
book preview page numper 4
book preview page numper 5
book preview page numper 6
book preview page numper 7
book preview page numper 8
book preview page numper 9
book preview page numper 10
book preview page numper 11
book preview page numper 12
book preview page numper 13
book preview page numper 14
book preview page numper 15
book preview page numper 16
book preview page numper 17
book preview page numper 18
book preview page numper 19
book preview page numper 20
book preview page numper 21
book preview page numper 22
book preview page numper 23
book preview page numper 24
book preview page numper 25
book preview page numper 26
book preview page numper 27
book preview page numper 28
book preview page numper 29
book preview page numper 30
book preview page numper 31
book preview page numper 32
book preview page numper 33
book preview page numper 34
book preview page numper 35
book preview page numper 36
book preview page numper 37
book preview page numper 38
book preview page numper 39
book preview page numper 40
260 Seiten