Beschreibung
Warum sollten Studierende sich noch prüfen lassen, wenn sie sich von einem Sprachmodell vertreten lassen können? Und warum sollten Professoren noch selbst prüfen oder Fachartikel schreiben, wenn ein KI-Textgenerator angeblich auch Wissen generieren kann?
In diesem Szenario werden Menschen ihre Kommunikation an Künstliche Intelligenz (KI) abtreten und sich selbst davon ausschließen. Aber damit passiert mit textlicher Kommunikation nicht mehr dasselbe, wie wenn Menschen kommunizieren würden. KI kann nicht lesen, verstehen oder kommunizieren; sogar der Sinn für „Schreiben" ändert sich beim Einsatz von Sprachmodellen. Die vorliegende Untersuchung bietet eine Bestandsaufnahme dafür, wie wenig kommunikatives Handeln mit dem übereinstimmt, was eine KI kann. Allerdings gefährden Menschen ihre kommunikative Kompetenz und moralische Urteilsbildung, wenn sie mit Maschinen um Texte konkurrieren – und auch um Gestalt und Stimme.
Autorenportrait
Lukas Ohly ist Professor für Systematische Theologie und Religionsphilosophie an der Goethe-Universität Frankfurt. Einer seiner Forschungsschwerpunkte liegt in der Ethik der Digitalisierung, Künstlichen Intelligenz und Robotik. Er ist geschäftsführender Herausgeber der „Theologisch-Philosophischen Beiträge zu Gegenwartsfragen“.