Lade Inhalt...

Chatbots

Eine linguistische Analyse

von Netaya Lotze (Autor:in)
Dissertation 443 Seiten
Open Access

Inhaltsverzeichnis

  • Cover
  • Titel
  • Copyright
  • Autorenangaben
  • Über das Buch
  • Zitierfähigkeit des eBooks
  • Inhaltsverzeichnis
  • Abkürzungsverzeichnis
  • Dank
  • Vorwort
  • Einleitung – Science und Fiction
  • 1. Artifizielle Dialogsysteme – Forschungsansätze und Entwicklungen
  • 1.1 Die Assistenzmetapher zwischen menschenähnlicher KI und Usability
  • 1.2 Chatbots und ECAs
  • 1.2.1 Grundlagen der Systemarchitektur und des Dialog-Designs einfacher Chatbots
  • 1.2.2 Erweiterung der Chatbot-Architektur durch klassische KI: Planbasierte Systeme
  • 1.2.3 Systemtypen und Automatentaxonomie
  • 1.2.4 Die im Rahmen der Studie evaluierten Systeme
  • 1.2.5 Probleme der medial vermittelten Kommunikation
  • 1.2.6 Anthropomorphes Design und soziale Effekte
  • 1.3 Restriktionen artifizieller Dialogsysteme und daraus resultierende theoretische Implikationen für die Analyse von HCI-Dialogen
  • 1.3.1 Theoretische Grundprinzipien der menschlichen Kommunikation
  • 1.3.2 Grundsätzliche Unterschiede einer Theorie der HHC und einer Theorie der HCI
  • 2. Vier theoretische Ansätze zur Analyse der HCI
  • 2.1 Linguistische und interdisziplinäre Forschungsansätze
  • 2.2 Konversationsanalyse in der HCI
  • 2.2.1 Turn-Konstruktion und Turn-Allokation
  • 2.2.2 Turn-Taking
  • 2.2.3 Adjazenzpaare
  • 2.2.4 Der Gesprächsrahmen
  • 2.2.5 Die Gesprächsmitte
  • 2.2.6 Störungen und Repair
  • 2.2.7 CA-basierte HCI-Forschung
  • 2.2.8 Untersuchungsparameter aus der CA als Grundlage für die Korpusanalyse
  • 2.3 Interaktives Alignment in der HCI
  • 2.3.1 Konstruktionsübernahmen auf der Ebene der Performanz und Alignment auf der Ebene der Kognition
  • 2.3.2 Das interaktive Alignment-Modell
  • 2.3.3 Distanz-Frequenz-Effekte
  • 2.3.4 Alignment in der HCI
  • 2.3.5 Untersuchungsparameter und Hypothesen mit Bezug zum interaktiven Alignment-Modell als Grundlage für die Korpusanalyse
  • 2.4 Kohärenz und Kohäsion
  • 2.4.1 Zum Kohärenzbegriff
  • 2.4.2 Informationswissenschaftliche Zugänge zu Kohärenz in Dialogen
  • 2.4.3 Oberflächenstruktur und Kohäsionsmarker
  • 2.4.4 Die Tiefenstruktur: Kontiguität, Präsuppositionen, Frame und Skript, Thema und Rhema
  • 2.4.5 Untersuchungsparameter und Hypothesen mit Bezug zum Konzept der Kohärenz und Kohäsion als Grundlage für die Korpusanalyse
  • 2.5 Computer-Talk
  • 2.5.1 Computer-Talk als strukturelles oder funktionales Register?
  • 2.5.2 Von der Register-Hypothese zu einem interaktiven Modell der HCI
  • 2.5.3 Untersuchungsparameter und Hypothesen mit Bezug zur Diskussion um CT als Grundlage für die Korpusanalyse
  • 2.6 Zusammenfassung der theoretischen Grundlagen
  • 3. Methoden
  • 3.1 Wissenschaftstheoretische Grundlegung
  • 3.2 Methodischer Zugang
  • 3.3 Aufbau der Korpora
  • 3.3.1 Zusammensetzung der Korpora: Teilkorpora, Korpusgrößen und Inhalte
  • 3.3.2 Trennung der Dialogkorpora in UserInnen- und Systemkorpus
  • 3.3.3 Homogenisierung des Formats der Korpora
  • 3.3.4 Bereinigung der Korpora (automatisch und manuell)
  • 3.3.5 Auswahl der Stichproben
  • 3.3.6 Aufbereitung und Annotation der Korpora
  • 3.3.7 Auswertung
  • 4. Ergebnisse der quantitativen und qualitativen korpusgestützen Analyse
  • 4.1 Ergebnisse der Analyse nach Kriterien der CA
  • 4.1.1 Die Gliederung der Dialoge in Turns und TCUs
  • 4.1.2 Turn-Taking und Splitting von Turns
  • 4.1.3 Der Gesprächsrahmen
  • 4.1.4 Die Gesprächsmitte
  • 4.1.5 Störungen und Repair
  • 4.1.6 Die Rolle des Mediums
  • 4.1.7 Muster der menschlichen Konversation in der HCI
  • 4.2 Ergebnisse der Analyse zu Alignment in der HCI
  • 4.2.1 Alignment in der HCI
  • 4.2.2 Die Verteilung der Persistenzpaare auf die Teilkorpora
  • 4.2.3 Die Zusammensetung der Persistenzen
  • 4.2.4 Die Verteilung der Persistenzpaare auf die verschiedenen Einzeldialoge
  • 4.2.5 Analyse der Distanzen zwischen Prime und Persistenz
  • 4.2.6 Die Bedeutung von Alignment in der HCI
  • 4.2.7 Alignmentfähige Systeme
  • 4.3 Ergebnisse der Analyse zu Kohärenz und Kohäsion
  • 4.3.1 Die Kohärenzstruktur der Untersuchungskorpora
  • 4.3.2 Die Dialogoberfläche
  • 4.3.3 Die Tiefenstruktur
  • 4.3.4 Die Illusion von Kohärenz
  • 4.4 Ergebnisse der Analyse zu Computer-Talk
  • 4.4.1 Strukturelle Indikatoren eines CTs: Vielfalt vs. Simplifizierung
  • 4.4.2 Strukturell manifestierte funktionale Aspekte: Sprachliche Höflichkeit
  • 4.4.3 Die Heterogenität der HCI
  • 4.4.4 Pro- und Contra-Argumente zum Konzept eines CTs
  • 4.4.5 CT als Teilaspekt der HCI
  • 4.5 Zusammenführung der Ergebnisse aus den Teilstudien
  • 5. Diskussion der Ergebnisse und Ausblick
  • 5.1 Ein Interaktionsmodell der HCI
  • 5.1.1 Inkonsistente und sprunghafte HCI
  • 5.1.2 HCI oder CT als funktionales Register
  • 5.1.3 Das Interaktionsmodell der HCI
  • 5.1.4 Soziale Wirkungen der HCI: Interaktion im Uncanny Valley
  • 5.2 Desiderata und Möglichkeiten zur Weiterentwicklung der Systeme
  • 5.2.1 Mögliche Innovationen
  • 5.3 Humanoid intelligente Systeme und Superintelligenzen oder Werkzeuge mit verbesserter Usability?
  • Literaturverzeichnis
  • Verzeichnis der Online-Quellen
  • Verzeichnis der angegebenen Links
  • Verzeichnis der verwendeten Korpora

← 10 | 11 →

Abkürzungsverzeichnis

← 12 | 13 →

Dank

Ich danke der Friedrich-Ebert-Stiftung für die großzügige finanzielle und ideelle Unterstützung meiner Dissertation. Ohne ihre im Rahmen der Graduiertenförderung zur Verfügung gestellten Mittel, hätte ich das Promotionsprojekt gar nicht erst beginnen können.

Außerdem danke ich der Firma Artificial Solutions – und dort vor allem Dipl.-Ing. Dipl.-Psych. Fred Roberts – sowie Prof. Dr.-Ing. Ipke Wachsmuth und apl. Prof. Dr.-Ing. Stefan Kopp von der Universität Bielefeld für die freundliche und kollegiale Bereitstellung der Millionen von Dialogtranskripten ihrer Chatbots und Embodied Conversational Agents. Ohne eine solide Datenbasis sind empirische Arbeiten gegenstandslos, daher bin ich sehr froh, dass ich auf eine solche Fülle an Mensch-Maschine-Dialogen zurückgreifen konnte.

Selbstverständlich gilt mein Dank auch meinem Betreuer Prof. Dr. Peter Schlobinski und meiner Betreuerin Prof. Dr. Kerstin Fischer für ihren stetigen, anregenden – und manchmal auch kritischen – inhaltlichen Input und vor allem für die theoretische Basis, auf der ich aufbauen konnte.

Solche Arbeiten entstehen niemals ohne die tatkräftige Unterstützung der zahlreichen FreundInnen, Verwandten, KollegInnen und Hilfkräfte, die nicht müde werden zu korrigieren, nachzurechnen und zu beraten. Euch allen bin ich zutiefst dankbar für Eure Mühen.

Netaya Lotze (Münster, Juli 2016) ← 13 | 14 →

← 14 | 15 →

Vorwort

Einer der Gründe, sich mit künstlichen Kommunikationspartnern zu beschäftigen, ist, dass diese Kommunikationssituation noch so ungewohnt ist, dass SprecherInnen nicht auf Routinen zurückgreifen können und stattdessen ad hoc Lösungen finden müssen, um diese ungewöhnliche Kommunikationssituation zu bewältigen. Die Spuren dieser Prozesse können dann in der Interaktion beobachtet werden. Interaktionen, in denen alles glatt läuft, sind in diesem Sinne viel weniger interessant als solche, in denen SprecherInnen gezwungen sind, neue Lösungen für die angenommenen Kommunikationsprobleme zu entwickeln. Die vorliegende Arbeit steht in dieser Tradition und stellt einen Meilenstein dar auf dem Weg, sprachliches Verhalten in neuen Kommunikationsumgebungen zu verstehen. Netaya Lotze analysiert Interaktionen mit vier verschiedenen deutschsprachigen Chatbots und liefert somit eine der ersten umfassenden Analysen von sprachlichen Mensch-Maschine-Interaktionen, in denen diese Aushandlungs- und Anpassungsprozesse deutlich werden. So trägt beispielsweise ihre Studie zum Alignment dazu bei, die Umstände, unter denen sich SprecherInnen an ihre Kommunikationspartner angleichen, besser zu verstehen. Insbesondere zeigen ihre Ergebnisse, dass lokales Alignment unter anderem durch globale Kohärenzbeziehungen bedingt ist. Ihre Analyse führt so zu einem besseren Verständnis kommunikativer Kooperationsprozesse im Allgemeinen.

Ein weiterer Grund für die Analyse von Interaktionen mit künstlichen Agenten ist, dass sie uns zeigen kann, was tatsächlich menschliche Kommunikation ausmacht. Brian Christian argumentiert beispielsweise in seinem Buch The Most Human Human dafür, dass Menschlichkeit sich vor allem durch ein konsistentes Selbst ausdrückt. Netaya Lotzes Arbeit geht hier weit darüber hinaus und zeigt, wie die Anpassung an einen bestimmten Kommunikationspartner den Dialog auf jeder Ebene (lokale und globale Kohärenz und Kohäsion, Alignment, sequentielle Struktur) durchsetzen, und dass zwischenmenschlicher Dialog sich durch engste Beziehungen zwischen Turns auf der sprachlichen Ebene auszeichnet. Dazu stellt Netaya Lotze in bemerkenswert lesbarer Weise künstliche Agenten und ihre Funktionsweise vor. Die vorliegende Arbeit ist außerdem großartig in der Art und Weise, wie interdisziplinäre Konzepte zusammengebracht und gut verständlich dargestellt werden. Ihre korpuslinguistische Untersuchung ist die aufwändigste und umfassendste sprachliche Analyse von Mensch-Computer-Interaktionen, die ich kenne, und extrem lohnend. Mir ist keine andere Studie ← 15 | 16 → bekannt, die solch einen Aufwand betrieben und so umfassende Ergebnisse zur Mensch-Maschine-Kommunikation vorlegen könnte wie die vorliegende Arbeit.

Der Leser und die Leserin der vorliegenden Arbeit haben somit eine exzellente Wahl getroffen: Der folgende Text ist klar und erstaunlich gut lesbar, liefert detaillierte Theoriediskussionen und tiefgehende empirische Analysen und leistet insgesamt einen wichtigen Beitrag für unser Verständnis von Mensch-Maschine-Interaktion, aber auch von dem, was menschliche Kommunikation ausmacht. Das Buch eignet sich aufgrund seiner Klarheit sowohl für LeserInnen, die noch neu in diesem Gebiet sind, als auch für WissenschaftlerInnen, die seit Jahren in diesem Feld arbeiten – für mich zumindest war dieses Buch zu lesen eine Bereicherung.

Prof. Dr. Kerstin Fischer (Hamburg, Juli 2016)

← 16 | 17 →

Einleitung – Science und Fiction

Ein uralter Traum beflügelt die menschliche Phantasie bis zum heutigen Tag: Die Erschaffung von künstlichen Intelligenzen (KI), mit denen man ebenso kommunizieren kann, wie mit einem menschlichen Gegenüber – von Robotern1 oder virtuellen Assistenzsystemen mit Sprachfunktion. WissenschaftlerInnen2 bemühen sich weltweit, Sprachsysteme zu entwickeln, die diesem Ideal nahe kommen. Die Mensch-Maschine-Interaktion oder Human-Computer-Interaction (HCI)3 ist als Teilgebiet der KI-Forschung seit den 1970er Jahren zu einem interessanten Forschungszweig mit rasanten Fortschritten avanciert. Doch sind die Technologien noch bei Weitem nicht so ausgereift, wie Science-Fiction-AutorInnen sie erträumen. Sprachfähige technische Entitäten bevölkern Bücher, Filme, Serien und Spiele dieses Genres und das Motiv des sprechenden Computers erfährt in den einzelnen Geschichten und fiktiven Welten sehr unterschiedliche Ausprägungen.

In welchem Maße diese künstlichen Intelligenzen natürlichsprachlich kommunizieren können, differiert in der Science Fiction stark. So unterhalten sich z. B. in George Lucas’ Star-Wars-Universum4 intelligente Maschinen untereinander in einer Art Robotersprache und es bedarf eines Übersetzungssystems (C3PO), um die Kommunikation zwischen Mensch und Maschine zu ermöglichen. Die sog. Droiden führen verlässlich Aufgaben für die Humanoiden aus z. B. als Steuerungseinheit eines Raumschiffs oder als Soldaten. Ihre Kommunikation umfasst nur das Nötigste. Douglas Adams (1981) dagegen stellt ein ← 17 | 18 → gänzlich anderes Szenario der Kommunikation mit artifiziellen Assistenten vor. In Per Anhalter durch die Galaxis gehören gleich zwei künstliche Intelligenzen zur Besatzung des Raumschiffs, die zur natürlichsprachlichen Interaktion in der Lage sind: Der redselige, übertrieben freundliche Bordcomputer Eddie und der depressive Roboter Marvin. Eine vom System vorgenommene Bewertung von Redebeiträgen nach emotionalen Kriterien wird schon heute von vielen WissenschaftlerInnen als wichtige Voraussetzung für gelungene HCI-Dialoge angesehen. Adams thematisiert humorvoll die Probleme, die es mit sich brächte, wenn man die Forderung nach emotionalen Sprachsystemen wörtlich nähme. Seine fiktiven Systeme sind nicht länger als zuverlässige Automaten einsetzbar, sondern unterliegen Stimmungsschwankungen und ändern ihre Ziele spontan. Die Dialogführung funktioniert einwandfrei, jedoch werden Dialoge durch die jeweilige persönliche Färbung anstrengend oder ineffizient. Auch die wissenschaftliche Gemeinschaft in der KI-Forschung diskutiert, ob ein wirklich anthropomorpher Dialog zwischen Mensch und Maschine überhaupt wünschenswert sei. Dabei steht immer die Frage nach der anwendungsspezifischen Nutzbarkeit (Usability) im Vordergrund. Während in der KI-Forschung teilweise tatsächlich das Ziel verfolgt wird, anthropomorphe Dialogkompetenz zu implementieren, setzt man im kommerziellen Sektor dagegen auf robuste Nutzbarkeit am jeweiligen Einsatzort.

Die besten Fähigkeiten eines Menschen und die beeindruckendsten Funktionen eines Roboters verbindet der Charakter Data aus Gene Roddenberrys Science-Fiction-Serie Star Trek – The next Generation (TNG), in der ein sehr positives Bild von technischem Fortschritt propagiert wird. Der Android handelt selbstbestimmt und kommuniziert natürlichsprachlich, inhaltsorientiert und effizient. Als lernfähiges System bemüht er sich bewusst um Finessen der menschlichen Kommunikation wie Ironie oder die Auswahl des angemessenen sprachlichen Registers, wie folgendes Beispiel einer Szene aus TNG zeigt, die beim Bordfrisör der Enterprise spielt5.

(1) Data (denkt): Freundschaftliche Beleidigungen und Sticheleien – eine weitere Form der menschlichen Sprache, die ich zu meistern versuche, in diesem Fall mit Commander Geordi La Forge.

(2) La Forge: Hi Data.

(3) Data (denkt): Ich sehe Geordi als meinen besten Freund an.

(4) La Forge: Auch hier zum Haareschneiden?

(5) Data: Mein Haar braucht nicht geschnitten werden, du Knalltüte. ← 18 | 19 →

Data analysiert La Forges elliptische Frage in (4) als Ironie, da zwischen ihm als nicht biologischem Android und „Haareschneiden“ keine direkte semantische Verbindung besteht – eine logische Operation zu der die meisten heutigen Sprachsysteme nicht in der Lage sind. Außerdem schätzt er in (3) das sprachliche Register als freundschaftliche Kommunikation ein, was bereits La Forges informelle Begrüßung in (2) nahelegt. Beide Informationen zusammen veranlassen Data zu seiner Äußerung in (5), in der er durch „du Knalltüte“ signalisiert, dass er erstens den Witz verstanden und zweitens die sprachliche Varietät bemerkt hat, in der sich der Dialog manifestiert.

(6) Data: Ich experimentiere mit freundschaftlichen Beleidigungen und Sticheleien, es war nicht als ernsthafte Beschimpfung gemeint.

Data ist folglich auch fähig zur metasprachlichen Reflexion. La Forges Sprache in der Serie weist bisweilen jugendsprachliche Merkmale auf, d. h. freundschaftliche Beschimpfungen stören in dieser Varietät den Dialog nicht (vgl. Neuland 2008). Dass sich eine solche Strategie nicht auf andere soziale Kontexte übertragen lässt, betont La Forge sofort, da er befürchtet, Data könne aus Mangel an Reflexion über die Kontextabhängigkeit des Registers übergeneralisieren.

(7) Geordi [La Forge] lachend: Also…versuchen Sie das ja nicht beim Captain.

Insgesamt zeigt der Dialog die komplexen logischen Operationen, zu denen Data als weit fortgeschrittene KI in der Lage ist, und das breite Wissen über menschliche Kommunikation, das die Datenbasis für sein Sprachsystem darstellt. Ähnlich wie Data können in Star Trek außerdem der Bordcomputer, ein Sprachassistenzsystem zur Steuerung aller Systeme des Raumschiffs verkörpert durch eine Frauenstimme, und das medizinische Notfallprogramm in Star Trek Voyager verkörpert durch ein Hologramm, als nahezu perfekte Dialogagenten angeführt werden. Diese Form der reibungslosen Kommunikation zwischen Mensch und Maschine ist zum Idealtypus der heutigen HCI stilisiert worden, so dass im Diskurs um innovative Sprachsysteme und neue Herausforderungen an die EntwicklerInnen häufig von Star-Trek-Kommunikation als erklärtem Ziel gesprochen wird. Als Star-Trek-Kommunikation gelten laut Voice Compass „Dialoge zwischen Mensch und Maschine, die ohne jede Einschränkung wie ein zwischenmenschlicher Dialog funktionieren“ (Artelt 2007: 336). Diese Definition geht auf eine Aussage von Dix et al. zurück, in der die eingeschränkten Möglichkeiten heutiger Systeme mit den menschenähnlichen der Star-Trek-Systeme verglichen werden. „In contrast to most human conversation, dialog with computers is relatively structured and constrained. It is only on Star Trek that one can chat freely to the computer and expect a response […]!” (Dix, Finlay, Abowd, Beale 2004: 545). ← 19 | 20 →

Heutige Systeme sind noch weit entfernt von einer uneingeschränkten, menschenähnlichen Konversation. Zwar haben die modernen Chatbots, Embodied Conversational Agents (ECAs), Social Intelligent Agents (SIAs) und soziablen Roboter wesentlich sophistiziertere Systemarchitekturen als Joseph Weizenbaums virtuelle Psychologin ELIZA6 in den 1960er Jahren und greifen auf größere Datenbanken zurück, betrachtet man jedoch die konkrete Dialogperformanz, scheitern sie in vielen Fällen schon – oder gerade – an alltäglichen Aufgaben.

Stellt man z. B. dem preisgekrönten Chatbot Elbot7 die gleiche Frage, wie La Forge sie im oben besprochenen Dialog Data stellt, wird eine Verlegenheitsantwort (5) ausgegeben, weil die Frage (4) vom Parser nicht verarbeitet werden konnte.

(1) Elbot: Ah, schon wieder ein Mensch! Ich bin Elbot, der Roboter. Was haben Sie denn auf dem Herzen?

(2) Netaya: Hi, Elbot.

(3) Elbot: Hallo, ich bin Elbot. Wer sind Sie?

(4) Netaya: Auch hier zum Haareschneiden?

(5) Elbot: Hier ist auch eine Frage: Was machen Sie eigentlich beruflich?

Warum Elbot die Frage (4) nicht verarbeiten kann, hängt mit unterschiedlichen Problemen zusammen. Erstens weicht die Userin vom eigentlich vorgegebenen, in (3) motivierten Gesprächsverlauf ab; d. h. sie wechselt spontan das Thema. Hier zeigt sich ein erstes grundsätzliches Problem in der Interaktion zwischen Mensch und Maschine: Der deterministische Automat steht einem menschlichen Wesen mit freiem Willen gegenüber, das seine Dialogziele abrupt ändern kann. Der Gedankensprung wird nicht kommentiert, da das System nicht in der Lage ist, die Kohärenz von Redebeiträgen zu beurteilen. In (5) springt Elbot allerdings dann in der Default-Antwort selbst zu einem neuen Thema, um einen Gesprächsbeitrag der Userin zu evozieren, den sein Parser besser erkennen kann.

Ein zweites Problem stellt die reduzierte Form der Frage in (4) dar. Entscheidungsfragen sind in ihrer Vollform für Dialogsysteme syntaktisch vergleichsweise leicht zu verarbeiten und bei der Generierung der Antwort beschränken sich die Möglichkeiten auf nur zwei Alternativen. Dieser Fragetyp wird von einigen Systemen mit Sprechaktparser erkannt. Da die Frage hier aber auf syntaktischer ← 20 | 21 → Ebene die Form einer Handlungsellipse aufweist und nicht die Vollform „Sind Sie auch hier zum Haareschneiden?“ eingegeben wurde, konnte sie nicht als Ja/Nein-Frage erkannt werden. Dies ist ein zweites notorisches Problem in Mensch-Maschine-Dialogen. Menschliche Kommunikation folgt in vielen Bereichen dem Prinzip der sprachlichen Ökonomie (vgl. Ronneberger-Sibold 1980), an Kurzformen wie in (3) scheitern Sprachsysteme jedoch noch häufig.

Den dritten Problembereich stellen Lexik und Morphologie dar. „Haareschneiden“ als nominalisiertes zusammengesetztes Verb wird in dieser Form vom Parser nicht erkannt, da es nicht genauso im Lexikon des Bots aufgeführt wird. Komposita dieser Art sind aber völlig alltäglich und können kreativ nach den Regeln der Morphologie gebildet werden. Ein elaboriertes Lexikon müsste also neben Lemmata auch alle Regeln der Morphologie beinhalten und als semantisches Netz angelegt sein, in dem „Haare“ und „schneiden“ assoziativ verbunden sind, um flexibel auf kreative Wortbildung seitens der UserInnen reagieren zu können. In Elbots semantisch nur rudimentär vernetzter Wissensorganisation liegt auch begründet, warum er keine Chance hat, die Ironie zu erfassen, die darin liegt, einen Roboter zu fragen, ob er sich die Haare schneiden lassen möchte. Ferner verfügt das System weder über Erfahrungen noch über Hintergrundwissen zu diesem Thema.

Biographische Angaben

Netaya Lotze (Autor:in)

Netaya Lotze ist Sprachwissenschaftlerin mit Schwerpunkt «Neue Medien» und Akademische Rätin an der Universität Münster. Sie studierte Germanistik und Philosophie und promovierte als Stipendiatin der Friedrich-Ebert-Stiftung sowie des Norddeutschen Exzellenznetzwerks. Sie war als Wissenschaftliche Mitarbeiterin an der Leibniz-Universität Hannover tätig.

Zurück

Titel: Chatbots