Autor und Psychologe Gerald Mackenthun (Berlin)
Autor und Psychologe Gerald Mackenthun (Berlin)

Taugt ChatGPT für Psychologen?

Ein erster Praxistest fällt in mancher Hinsicht ernüchternd aus

Als Ende 2022 die US-Firma OpenAI ihren Dialogsimulator ChatGPT für die Allgemeinheit freigab, gingen die Nutzerzahlen innerhalb weniger Wochen in die Millionen. Können Psychologen und Psychotherapeuten von der Künstlichen Intelligenz (KI)  profitieren? 

 

Stand Oktober 2023

Hinweis: Die Anwendungsmöglichkeiten von KI erweitern und verbessern sich rasant. Einige der hier mitgeteilten Informationen können bei Veröffentlichung bereits überholt sein. – Literatur- und Quellenhinweise am Schluss des Textes.

 

Künstliche Intelligenz (KI) für jedermann hat mit ChatGPT einen neuen, aufregenden Stand erreicht. GPT steht für Generative Pre-trained Transformer. Pre-trained, also vortrainiert, ist die KI, weil die Entwickler sie mit unzähligen Daten aus öffentlichen Quellen füttern. Die dabei verwendete Datenmenge ist beachtlich. Die ChatGPT-Version 3.5 von OpenAI kommt auf 175 Milliarden Parameter, PalM von Google auf 540 Milliarden [1].

Die Technik ist grundsätzlich nicht neu. KI wird seit einigen Jahren in alltäglichen Bereichen eingesetzt: Suchmaschinen, Sicherheit (Gesichtserkennung, Fingerabdruck-Scan), automatische Textvorschläge beim Nachrichtenschreiben, Routenberechnungen, Sprachassistenten auf dem Smartphone, Übersetzungen, Kaufempfehlungen beim Online-Shopping, als Werkzeug für Poetik und Schriftstellerei.

Anwendungsbeispiele

Jeder kann ChatGPT benutzen; für die Anmeldung werden eine E-Mail-Adresse und ein Passwort benötigt (https://chat.openai.com/). Die Verifizierung erfolgt über einen via E-Mail zugeschickten OpenAI-Code und die Handynummer des Nutzers [2]. Die Fragen können in Deutsch gestellt werden.

Ich habe das Angebot für einige psychologische und psychotherapeutische Belange getestet. Erster Versuch: „Seit wann ist in Deutschland die Einsicht in die eigene Krankenakte für Patienten erleichtert worden? Bitte mit Quelle.“ Antwort: „In Deutschland ist die Einsichtnahme in die eigene Krankenakte für Patienten seit dem 1. Januar 2021 durch das Patientendaten-Schutz-Gesetz (PDSG) erleichtert worden.“ Doch die angegebene Internetseite ist gelöscht [3]. Man müsste auf der Seite des Bundesgesundheitsministeriums selbst suchen.

Zweite Frage: „Welche sind die heute weltweit am häufigsten zitierten psychologisch-klinischen Autoren? Bitte mit Quelle.“ Innerhalb von Sekunden werden zehn Namen genannt, an der Spitze der amerikanische Psychiater und Psychotherapeut Aaron T. Beck. Als Quelle wird „Web of Science“ angegeben, eine kostenpflichtige Datenbank. Auch dieses Ergebnis ist nicht befriedigend, da der Nutzer dort selbst in die Recherche einsteigen muss [4].

„Was sind die heute weltweit am häufigsten genannten Forschungsthemen in der klinischen Psychologie? Bitte mit Quelle.“ ChatGPT antwortet: „Eine Analyse der am häufigsten genannten Forschungsthemen in der klinischen Psychologie findet sich in einer Studie von Nuijten et al. aus dem Jahr 2019. Die Autoren untersuchten die Abstracts von 40.000 Artikeln, die zwischen 2007 und 2016 in der Zeitschrift ‚Journal of Abnormal Psychology‘ veröffentlicht wurden.“ Der angegebene Nuijten-Artikel [5] lässt sich jedoch in der kostenpflichtigen Zeitschrift nicht finden.

„Welche neuen Themen im Bereich der klinischen Psychologie spielen in den vergangenen zehn Jahren eine zunehmende Rolle? Bitte mit Quellen.“ ChatGPT nennt vier Themen: Digital Mental Health (digitale Selbsthilfemaßnahmen bei Depressionen, schlechter Stimmung oder Angstzuständen); Positive Psychologie (Dankbarkeit und Wohlbefinden); Kulturelle Sensibilität (kulturelle Unterschiede in der Diagnose und Behandlung psychischer Störungen) und Neurodiversität (Anerkennung der Vielfalt neurologischer Funktionen). Zwei Quellen werden angegeben: Ein Artikel in der Zeitschrift Current Opinion in Psychology und ein amerikanisches Buch [6] [7]. Der angegebene Artikel wird in der Suchfunktion der Zeitschrift nicht gefunden; das Buch ist nicht bei Amazon gelistet. Auf der Verlagsseite gibt es keinen Eintrag zum angegebenen Autor.

Man kann die Sucheingabe wiederholen (Regenerate Response). In einem zweiten Suchdurchlauf werden für die Themen „Digital Mental Health“ und „Positive Psychologie“ zwei thematisch zutreffende, auffindbare und zitierfähige englischsprachige Quelle genannt (im Journal of Medical Internet Research [8] und in der Clinical Psychology Review [9]). Ein dritter Aufsatz lässt in der angegeben Zeitschrift nicht finden [10], ein vierter Aufsatz, angeblich publiziert 2019, soll sich in einer Zeitschrift (Autism [11]) befinden, die offenbar 2016 eingestellt wurde. Eine übergreifende Quelle zum Thema „neue Trends in der klinischen Psychologie“ in einer australischen Zeitschrift stellt sich ebenfalls als tot heraus [12]. Selbst die unveränderlichen DOI-Nummern (Digital Object Identifier) führen oftmals ins Leere.

Dialog über politischen Stress

Seit Corona stellen sich gelegentlich Patienten vor, die äußerst unglücklich sind mit diversen politischen Entscheidungen auf Bundesebene. Sie leiden anhaltend an den ausgrenzenden Restriktionsmaßnahmen und dem öffentlichen Druck, sich impfen zu lassen. Aus den USA kommt der passende Begriff dafür: „Political Stress“. Das führt zu folgender Anfrage an ChatGPT: „Manche Menschen zeigen ein extrem kritisches Verhalten gegenüber dem Staat und seinen Institutionen, beispielweise gegen Maßnahmen zur Coronabekämpfung. Das ist auch ein Thema für die Psychotherapie. Wie sollte mit solchen Patienten therapeutisch umgegangen werden?“ Die Antwort sind einige allgemeine Hinweise zur kulturellen Sensibilität, der Stabilität therapeutischer Beziehungen, Empathie und Verständnis, Freiheit von Vorurteilen und der Ehrlichkeit bei der Behandlung politischer Überzeugungen. Die Quellen blieben allgemein und müssten nachrecherchiert werden.

Die Anschlussfrage lautet: „Die Haltung derartiger Patienten ist gekennzeichnet von einer starken Penetranz, ihre politische Meinung zur Geltung zu bringen. Wie sollte ein Psychotherapeut darauf eingehen?“ Die Antwort des Roboters ist lebensklug. Der Therapeut sollte eine respektvolle Atmosphäre aufrechterhalten, die Gefühle des Patienten validieren, auf dessen Bedürfnisse fokussieren, aber das therapeutische Gespräch nicht zu einer politischen Debatte ausarten lassen und die Therapie frei von einer politischen Agenda halten.

Nächste Frage: „Diese Patienten leiden an politischen Zuständen und Entscheidungen. Sie wählen Quellen der Information selektiv aus, um ihre Haltung bestätigt zu bekommen. Das wiederum perpetuiert ihr Leiden an der Gesellschaft. Gibt es einen Ausweg aus diesem Zirkel?“ Der Dialogsimulator bejaht: Der Therapeut sollte dem Patienten helfen, seine eigene emotionale Reaktion auf politische Ereignisse zu erkennen und zu regulieren, sich auf seine Ressourcen und Stärken zu besinnen, um besser mit politischen Herausforderungen umzugehen, und seine Perspektiven zu erweitern, um politische Emotionen in einem gesünderen Kontext zu betrachten.

Diese Antworten, zusammengestellt von einem Algorithmus-Roboter, erscheinen hilfreich und „durchdacht“. Von den fünf detaillierten bibliographischen Quellenhinweise zum Thema „Political Stress“ sind freilich vier nicht auffindbar und scheinen erfunden. Die einzige existierende Quelle [13] hat keinen Bezug zum Thema.

Die Erwartung war, dass die schlaue KI lästige Aufgaben abnehmen kann. Angesichts dieser Ergebnisse muss wohl bis auf Weiteres selbst recherchiert werden. Anwenderfreundlich sind die Bots anscheinend noch nicht, es sei denn, es handelt sich um Schnickschnack wie eine „Ode an meine Katze, geschrieben im Stil eines alten Piratenliedes“, zehn Ideen, einen guten Espresso zu brauen oder 30 Vorschläge, wozu man eine Büroklammer gebrauchen kann.

Bei YouTube finden sich mehrere Schulungsvideo zu einer offenbar gewinnbringenderen Anwendung von ChatGPT [14]. Die Software soll demnach brauchbar sein zum Paraphrasieren von Texten, zum Korrekturlesen, zum Übersetzen in andere Sprachen, zum Formulieren einfacher E-Mails und zum Auffinden von Wortwiederholungen. Der Bot kann Synonyme finden, einen Text wissenschaftlicher klingen lassen, Forschungsfragen zu einem gewünschten Thema zusammenstellen, weniger bekannte Informationen zu einem Thema suchen, komplexe Aussagen in einfacheren Worten wiedergeben und beim Lernen helfen. Er kann rechnen, Kochtipps für nächsten Sonntag samt Einkaufsliste zusammenstellen, Geschichten anhand von Stichworten schreiben, einen sportlichen Trainingsplan für die gesamte Woche empfehlen, Buchinhalte zusammenfassen, als Reiseführer agieren, Witze erzählen, HTML-Codes schreiben und Excel-Tabellen erstellen [15]. Die Fragen und Unterhaltungen werden bei ChatGPT in der linken Spalte gesammelt und stehen später zur Verfügung.

Prompting

Der Gebrauch der Künstlichen Intelligenz muss erlernt werden. Entscheidend ist der passende Eingabetext, „Prompting“ (Eingabeaufforderung) genannt. Es gilt, einige Kniffe zu beherrschen, auf die man nicht direkt hingewiesen wird; sie stehen auf Englisch im Kleingedruckten. Auf YouTube lassen sich Lehrvideos finden, die auch hierzu brauchbare Tipps enthalten. Die Leistungsfähigkeit von ChatBots müssen die Nutzer selbst testen und üben [16]. Das wird Zeit in Anspruch nehmen. Wenn KI derzeit noch Fehler macht, so heißt das nicht, dass es so bleiben wird. Es steht zu erwarten, dass diese Technik in hoher Geschwindigkeit ausgefeilter und präziser wird [17]. Der nächste Entwicklungsschritt ist bereits getan und nennt sich APE, „Automatic Prompt Engineer“ [18].

Schon jetzt stehen vielfältige KI-Anwendungen zur Verfügung, die auch für Psychologen interessant sind. Die kostenlose Software von DeepL liefert ausgezeichnete Übersetzungen, die kaum noch überarbeitet werden müssen. Weitere Arbeitserleichterungen sind verschiedene Features, entweder eingebunden in Softwareprogramme oder als eigenständige Angebote. Zu nennen wären die Korrektur- und Diktierfunktion von Microsoft Word, die „Gute-Deutsch-Programme“ von „DeepL Write“ und „Languagetool“ sowie die über die Jahre zuverlässiger gewordene Enzyklopädie „Wikipedia“. Alle haben in den vergangenen Jahren erheblich an Qualität gewonnen.

Sind ChatBots copyright-fest?

Ist die Leistung der ChatBots copyright-tauglich? Wissenschaftsverlage lehnen es derzeit ab, von KI-System verfasste Texte zu publizieren. Das deutsche Urheberrecht setzt eine persönliche geistige Schöpfung voraus [19]. In Schulen und Universitäten könnten der Bot bei der Quellensuche, dem Aufbau einer Argumentation und überhaupt bei Vorarbeiten für einen eigenen sprachlichen Text eine Rolle übernehmen. Es wird experimentiert an einer KI, die Schülern und Studenten personalisierte Rückmeldungen mit Verbesserungsvorschlägen gibt [20].

Die Bereitstellung von KI muss zwei Arbeitsschritte durchlaufen, die Programmierung und die Kontrolle der Ergebnisse. Beides sind menschliche Aufgaben. Es ist nicht zu befürchten, dass KI „den Menschen abschafft“. Zwischen böse und gut kann am Ende nur der Mensch unterscheiden. Der beste Algorithmus kann schlechte Ergebnisse produzieren, wenn er mit problematischen oder unbrauchbaren Daten gefüttert wurde. Das bedeutet, der Güte von Trainingsdaten Aufmerksamkeit zu schenken. Über die Auswahlkriterien aber schweigen OpenAI und die anderen KI-Anbieter. Das zweite große Fragezeichen sind die Algorithmen, nach denen die Daten ausgesucht und geordnet werden. Es wird nicht zu verhindern sein, dass böswillige Menschen die KI-Werkzeuge für schäbige und kriminelle Zwecke missbrauchen. Die Diskussion um Sicherheitsstandards in der Branche wird sicherlich fortgesetzt werden.

Könnten in naher Zukunft ChatGPT oder eine andere KI die psychologischen „Berichte an den Gutachter“ schreiben? Sofern nicht ein ChatBot benutzt wird, der ohne Internetanbindung (offline) auf dem eigenen Computer läuft (was inzwischen auch möglich ist), ist ein solches Vorgehen datenschutzrechtlich heikel. Schützenswerte Patientendaten werden in Unternehmen verarbeitet, deren Server in den USA stehen und einer Rechtsprechung unterliegen, die den Anforderungen in Deutschland nicht gerecht wird. Auch wenn die Daten nur anonymisiert eingegeben werden, ist Fachleuten eine Re-Personalisierung theoretisch möglich.

Künstliche Intelligenz bleibt künstlich und wird vermutlich nie an menschliche Intelligenz heranreichen [21]. Technik hat keine Moral in sich – sie ist eben nur ein Werkzeug. Diese aber werden Gesellschaft und Menschen stark verändern und prägen. Es sieht so aus, dass niemand, der mit Texten, Musik und Bildern arbeitet, in Zukunft an KI-gestützten Systemen vorbeikommen wird.

*     *     *

Doch wie Künstliche Intelligenz (KI) die Arbeit von Psychologen und Psychotherapeuten verändern wird, ist noch nicht abzusehen. KI ist ein Werkzeug, um aus Informationsschnipseln neues Wissen zu generieren. Die Vorteile liegen in der - im Vergleich zum Internet - nochmals erleichterten Zugänglichkeit, in der erweiterten Automatisierung und in der nochmals gesteigerten Geschwindigkeit bei der Bereitstellung von Ergebnissen. KI bietetdie Möglichkeit, Texte, Grafiken, Musik oder Videos, aber auch Quellcodes, Designsoder Konstruktionspläne automatisch zu erstellen. Dabei ist zu beachten, dass in den meisten Fällen kein fertiges Endprodukt entsteht, sondern dieses mit dem vorhandenen Wissen des Anwenders überprüft und überarbeitet werden muss. Nur bei einfachen Fragestellungen wird man auf Anhieb mit dem Ergebnis zufrieden sein.

Eine weitere Erkenntnis ist, dass die Nutzerbisher nur an der Oberfläche des Möglichen kratzen. Die Milliarden von Informationsschnipseln, die in die Rechner der KI eingespeist sind, können auf vielfältige Weise neu zusammengesetzt werden. Es ist nur eine Frage der Zeit, bis die KI ihre Fähigkeiten erweitert. Dies wird vor allem in technischen Bereichen geschehen, könnte aber auch Psychotherapeuten und ihren Beruf betreffen. Vieles, was KI in Zukunft leisten kann, wird die breite Bevölkerung nicht interessieren oder berühren, etwa die Zusammenstellung neuer chemischer Verbindungen für individuelle Medikamente oder Schaltpläne für Spezialmaschinen.

Ähnlich Computer in den 80er Jahren personalisiert und individualisiert werden konnten (Personal Computer, PC), wird die KI rasch in viele Bereiche des täglichen Lebens Einzug halten. In naher Zukunftwird die Nutzung von KI für Arbeitnehmer so selbstverständlich sein wie heute die Nutzung von Computern mit ihren vielfältigen Softwareanwendungen (Apps). Und auch Privatpersonen werden davon profitieren, wenn KI-Plattformen bei der Urlaubsplanung oder der Geschenkeauswahl für Geburtstage und Weihnachten Vorschläge machen. Der Streik der Buch- und Filmautoren in den USA beruht auf der beunruhigenden Tatsache, dass KI in der Lage ist, viel schneller als ein Mensch eine Geschichte, einen Plot zusammenzustellen. Hier und in anderen Bereichen droht tatsächlich eine Verdrängung menschlicher Arbeit durch künstliche Intelligenz. Insgesamt aber ist KI ein spannendes neues Werkzeug, um Routinearbeiten zu erledigen, neue Inhalte zu generieren, Zeit zu sparen und Informationen zu verifizieren. Das kann auch für Psychotherapeuten und andere helfende Berufe im sozialen Bereich interessant werden. Eine Verdrängung menschlicher Arbeit durch Maschinen ist hier eher nicht zu erwarten.

Es kommt also darauf an, KI arbeitserleichternd und entlastend einzusetzen. Wie bei allen neuen Techniken, die erlernt werden können und müssen, werden sich Menschen unterschiedlich leicht oder schwer damit tun. Einige KI-Anwendungen sind kompliziert, während andere leicht zugänglich sind. Die so genannte generative Künstliche Intelligenz wird für Psychotherapeuten wahrscheinlich nicht in Frage kommen. Es ist noch nicht absehbar, ob diese Berufsgruppe KI-generierte Inhalte benötigt. Eine Anwendungsmöglichkeit, allerdings nur in Deutschland mit seinem spezifischen Gesundheitssystem, ergibt sich eventuell halbautomatisch erstellte „Berichte an den Gutachter“. Der Therapeut füttert die KI mit patientenbezogenen Informationen, aus denen die KI einen Bericht erstellt. Dabei greift das System auf vorhandene Trainingsdaten zurück und nutzt maschinelles Lernen. Das heißt, je öfter die KI einen solchen Bericht erstellt, desto genauer und nützlicher werden diese Berichte.

Bevor es soweit ist, sehe ich schon eine andere sinnvolle Anwendung. Das ist die Sprachsynthese. Audio-Inhalte werden von lernfähiger KI transkribiert. Diese Anwendung ist inzwischen so weit fortgeschritten, dass sie brauchbare Ergebnisse liefert. Speech-to-Text und Video-to-Text eignen sich für Audio- oder Videodateien, die im Rahmen von Therapien aufgenommen wurden. Wer psychologische Fächer lehrt, wird durchKI-Abfragen wesentlich schneller als bisher Inhalte zusammenstellen können. Darüber hinaus können Psychologen von allgemeinen Anwendungen profitieren, etwa beim Erlernen von Fremdsprachen.

Künstliche Intelligenz und generative KI betreffen also nicht nur den Beruf des Psychologen, sondern stehen prinzipiell jedem offen, der damit umgehen kann. Es kommt darauf an, KI sinnvoll in die Arbeit zu integrieren, d. h. der KI die richtigen Fragen zu stellen. Dazu gibt es viele Beispiele und Anleitungen auf den entsprechenden Plattformen selbst, aber auch auf YouTube.

Wenn Psychologen an Hochschulen oderAusbildungsinstituten schriftliche Prüfungen abnehmen, wird es nicht mehr so einfach sein, den Prüflingen die Aufgaben mit nach Hause zu geben. Es ist sehrwahrscheinlich, dass dann die Antworten aus der KI stammen. Lehrende müssen Tests sinnvoll mit anderen Prüfungsformen wie mündlichen Prüfungen oder Projekten kombinieren, um den Lernerfolg überprüfen zu können. In jedem Fall müssen Studierende oder Auszubildende alle generierten Inhalte kritisch hinterfragen und ggf. mit verifizierten Quellen belegen. Sollten ganze Sätze aus KI-Daten in den abgelieferten Texten landen, wäre dies immer noch ein zu sanktionierendesPlagiat.

Erste Ergebnisse zeigen also, dass Anwender durch den Einsatz von KI und generativer KI etwas mehr Zeit für andere Aufgaben gewinnen. Insgesamt werden tendenziell bessere Ergebnisse erzielt. Gerade in Psychologie und Psychotherapie stehen das Gespräch und die Diskussion im Vordergrund. Im direkten Gespräch kann überprüft werden, ob die Probanden die Inhalte auch wirklich verstanden haben. Vielleicht wird es bald Weiterbildungsangebote in KI geben, bei denen der Schwerpunkt auf präzisen Fragen an diese Sprachmodelle (prompts) liegt.

Bleibt noch der Einsatz von KI als künstlicher Gesprächspartner für Hilfesuchende. Nun ist der Psychotherapeut nicht die einzige Instanz, an die sich Menschen in seelischer Not wenden können. Entsprechend differenziert wird sich der Einsatz von Software zur Gesprächssimulation gestalten. Für den Patientenmonolog in der Psychoanalyse wird ein Chatbot wohl nicht in Frage kommen. Bei den drei anderen kassenärztlich anerkannten Psychotherapieverfahren dürfte die Verhaltenstherapie am ehesten für den Einsatz einer Frage-Antwort-KI geeignet sein. Patienten haben häufig Fragen zur Psychotherapie und anderen Unterstützungsformen, die sich gut standardisieren lassen: Was ist eineDepression und habe ich eine? Übernimmt meine Krankenkasse eine Psychotherapie? Welche Hilfsangebote gibt es in meiner Stadt bei Magersucht oder Bulimie usw.? Diese Fragen zu beantworten, gehört zu den ersten und einfachsten Fähigkeiten einer KI. Was sie heute und wohl auch in Zukunft nicht leisten kann, ist die empathische, ganz auf den einzelnen Patienten zugeschnittene Reaktion. Auch hier müssen Therapeuten nicht befürchten, dass ihre Arbeit ersetzt wird. Vielmehr kann KI schon heute schnell und relativ sicher fachliche Informationen liefern. Je simpler ein Patient gestrickt ist, desto einfacher wird es sein, ihn mit einem Chatbot (Sprachroboter) abzuspeisen.

Gerald Mackenthun

Literatur- und Quellenhinweise

1      Sachse, Maximilian: „Die große Bonanza mit Künstlicher Intelligenz“, Online-Ausgabe der Frankfurter Allgemeinen Zeitung, 11. April 2023, https://www.faz.net/aktuell/wirtschaft/schneller-schlau/chatgpt-keine-internetanwendung-wuchs-je-so-schnell-18799756.html, aufgerufen am 10. Mai 2023.

2      https://www.youtube.com/watch?v=yf783C-mnk4, aufgerufen am 1. Mai 2023.

3      https://www.bundesgesundheitsministerium.de/patientendaten-schutzgesetz.html

4      Web of Science, search query: TOPIC=("clinical psychology") AND DOCUMENT TYPES: (ARTICLE OR REVIEW) AND LANG: (ENGLISH) AND PUBYEAR > 2015.

5      Nuijten, M. B., Deserno, M. K., Cremers, H. R., & Borsboom, D. (2019). Citation analysis of the Journal of Abnormal Psychology: A network perspective. Journal of Abnormal Psychology, 128(3), 242-251.

6      Wong, Q. J. J., & O'Neill, S. (2021). Clinical psychology research in the last decade: trends, challenges, and future directions. Current Opinion in Psychology, 41, 1-6.

7      Waller, R., Gilbody, S., & Barlow, D. (2019). Anxiety, depression, and self-harm: Understanding and using longitudinal data to improve mental health. Wiley-Blackwell.

8      Fleming, T. M., Bavin, L., Lucassen, M., Stasiak, K., Hopkins, S., Merry, S. N., ... & Lau, H. M. (2018). Beyond the trial: systematic review of real-world uptake and engagement with digital self-help interventions for depression, low mood, or anxiety. Journal of medical Internet research, 20(6), e199.

9      Wood, A. M., Froh, J. J., & Geraghty, A. W. A. (2019). Gratitude and well-being: A review and theoretical integration. Clinical Psychology Review, 69, 105-121.

10    Zhang, A. Y., Snowden, L. R., Sue, S., & Chen, H. (2019). Toward culturally centered integrative care for addressing mental health disparities among ethnic minorities. Psychological services, 16(4), 540.

11    Milton, D. E. (2019). The proportion of autistic adults in the United Kingdom using mental health services who are prescribed antipsychotic medication. Autism, 23(4), 931-936.

12    Stagnaro, M. N., & Pakenham, K. I. (2019). Emerging and contemporary themes in clinical psychology: A review of the past decade. Australian Psychologist, 54(6), 424-435.

13    Inglehart, R., & Norris, P. (2016). Trump, Brexit, and the rise of populism: Economic have-nots and cultural backlash. HKS [Harvard Kennedy School] Working Paper No. RWP16-026. https://www.hks.harvard.edu/publications/trump-brexit-and-rise-populism-economic-have-nots-and-cultural-backlash, aufgerufen am 1. Mai 2023.

14    Beispielsweise https://www.youtube.com/watch?v=aZV53_mTsGA, aufgerufen am 26. April 2023.

15    https://www.youtube.com/watch?v=RJH0WuE_yZ4, aufgerufen am 1. Mai 2023.

16    Lenzen, Manuela: „Prompt und kein Quatsch“, Tagesspiegel Berlin, 2. Mai 2023, S. 16f.

17    Bermes, Christian und Dörpinghaus, Andreas: „Wer hat Angst vor ChatGPT?“, FAZ, 19. April 2023, S. N4.

18    Automatic Prompt Engineer (APE), https://www.promptingguide.ai/techniques/ape, aufgerufen am 2. Mai 2023.

19    Schmoll, Heike: „Hausaufgaben mit ChatGPT?“, Frankfurter Allgemeine Zeitung, 29. April 2023, S. 10.

20    Interview mit Enrico Schleiff, Präsident der Frankfurter Goethe-Universität, Spiegel-Online, 6. Mai 2023, https://www.spiegel.de/wissenschaft/mensch/chatgpt-kann-die-bildung-verbessern-uni-praesident-ueber-die-zukunft-des-lernens-a-9e1ab32d-8d1b-4253-9653-e4146d0229cc, aufgerufen am 10. Mai 2023.

21    „Künstliche Intelligenz: Haben Maschinen Gefühle?“ Arte, 29. April 2023, https://www.arte.tv/de/videos/098860-000-A/kuenstliche-intelligenz/, aufgerufen am 10. Mai 2023.

Priv.-Doz. Dr. Gerald Mackenthun

Dipl.-Politologe

Dipl.-Psychologe

Dr.phil.

Privat-Dozent für Klinische Psychologie

 

Email gerald.mackenthun@gmail.com

 

Büro 030/8103 5899

0171/ 624 7155

 

Bitte beachten Sie, dass in der Regel der Anrufbeantworter eingeschaltet ist.

Sie können dort eine Nachricht  mit der Bitte um Rückruf hinterlassen. Ich rufe meist am Abend oder am nächsten Tag zurück.

Besucher insgesamt auf den Seiten von geraldmackenthun.de seit 20. Februar 2011.

Translate my site into english or french:

Meine Bücher in "Google Scholar" (Zitationen und Verweise)

Druckversion | Sitemap
© Gerald Mackenthun, Berlin, Februar 2011

Diese Homepage wurde mit IONOS MyWebsite erstellt.

Anrufen

E-Mail

Anfahrt