Der Einsatz und die Anwendung von Künstlicher Intelligenz (KI) ist aktuell Forschungsgegenstand in vielen Wissenschaftsbereichen. Und auch in Disziplinen wie der alternativen Streitbeilegung, die sich mit dem Verhalten und dem Umgang von und mit Menschen in Konfliktsituationen befassen, gewinnt die Thematik an Bedeutung.
Als Beispiel hierfür kann der jüngst von Christoph Salger unter dem Titel “Artificial Intelligence (AI) in Mediation – ChatGPT as Mediator 4.0” veröffentliche Aufsatz gelten, in dem sich der Autor mit der Frage befasst, ob und wie ChatGPT-4 im Zusammenhang mit alternativer Streitbeilegung, namentlich mit Mediation, eingesetzt werden kann, um Effizienzgewinne und Kostensenkungen zu erzielen.
Salger, der am `Straus Institute for Dispute Resolution´ an der `Pepperdine University´ forscht, gelangt in seinem bemerkenswerten Abhandlung zu folgendem Fazit:
ChatGPT-4 habe trotz zahlreicher ethischer Bedenken das Potenzial, den Bereich der Mediation erheblich zu verändern, indem es kostengünstige, effektive und objektive Mediationsinformationen als KI-basiertes Instrument zur Verfügung stelle.
(der vollständigen Text findet sich hier).
Salger’s Ausführungen haben den Verfasser des vorliegenden Beitrags neugierig gemacht. Wie würde wohl eine Künstliche Intelligenz diese Problematik beurteilen? Also stellte er ChatGPT die Frage „Wie kann ChatGPT nutzbringend in einem Mediationsverfahren eingesetzt werden?“ und erhielt dazu folgende Antwort:
„ChatGPT kann in einem Mediationsverfahren auf verschiedene Weisen nutzbringend eingesetzt werden.
Hier sind einige Möglichkeiten:
1. Informationsaustausch: ChatGPT kann als Kommunikationsplattform dienen, um Informationen zwischen den beteiligten Parteien auszutauschen. Die Parteien können ihre Standpunkte, Interessen und Bedürfnisse über ChatGPT kommunizieren, was zu einer effizienten und strukturierten Diskussion führen kann.
2. Dokumentation: ChatGPT kann verwendet werden, um alle relevanten Informationen und Vereinbarungen während des Mediationsverfahrens zu dokumentieren. Die Chatprotokolle dienen als Aufzeichnungen, auf die später zurückgegriffen werden kann, um sicherzustellen, dass alle Parteien mit den gleichen Informationen arbeiten.
3. Konfliktlösungsstrategien: ChatGPT kann als Unterstützung bei der Entwicklung von Konfliktlösungsstrategien dienen. Indem es verschiedene Lösungsansätze vorschlägt, können die beteiligten Parteien neue Perspektiven erhalten und alternative Lösungswege erkunden.
4. Emotionale Entlastung: Mediation kann emotional belastend sein, insbesondere wenn es um persönliche oder tiefgreifende Themen geht. ChatGPT kann als neutraler Gesprächspartner dienen und den Parteien helfen, ihre Emotionen und Gedanken auszudrücken. Es kann auch dabei helfen, die Kommunikation zu erleichtern, indem es als Vermittler zwischen den Parteien agiert und den Fokus auf die sachliche Diskussion lenkt.
5. Sprachunterstützung: Wenn eine oder mehrere Parteien sprachliche Barrieren haben, kann ChatGPT als Übersetzungs- und Dolmetschplattform dienen. Es kann helfen, Informationen zwischen den Parteien zu vermitteln und sicherstellen, dass alle Beteiligten die gleichen Informationen verstehen.
Es ist wichtig zu beachten, dass ChatGPT kein Ersatz für einen menschlichen Mediator ist. Die menschliche Interaktion, Empathie und die Fähigkeit, den Kontext zu verstehen, sind wesentliche Bestandteile eines erfolgreichen Mediationsverfahrens. ChatGPT kann jedoch als ergänzendes Tool verwendet werden, um die Effizienz, Struktur und Dokumentation des Mediationsprozesses zu verbessern. Es sollte immer eine qualifizierte menschliche Mediatorin oder einen qualifizierten menschlichen Mediator geben, der das Verfahren leitet und die Parteien unterstützt.“
Und auf die Anschlussfrage „Welche ethischen Bedenken bestehen beim Einsatz von ChatGPT in einem Mediationsverfahren“ gab die Künstliche Intelligenz folgende Antwort:
„Beim Einsatz von ChatGPT in einem Mediationsverfahren gibt es mehrere ethische Bedenken, die berücksichtigt werden sollten. Hier sind einige davon:
1. Vertraulichkeit und Datenschutz: Mediationsverfahren erfordern in der Regel eine hohe Vertraulichkeit, um einen offenen Austausch zwischen den Parteien zu ermöglichen. Es ist wichtig sicherzustellen, dass die mit ChatGPT geführten Gespräche und die daraus resultierenden Daten angemessen geschützt sind, um die Privatsphäre der Beteiligten zu wahren.
2. Parteilichkeit und Neutralität: ChatGPT ist ein maschinelles Modell, das auf vorherigen Textdaten trainiert wurde. Es besteht die Möglichkeit, dass es ungewollt voreingenommenes Verhalten oder Vorurteile aus den Trainingsdaten übernimmt. Dies könnte zu einer Beeinflussung des Mediationsprozesses führen und die Neutralität des Mediators in Frage stellen. Es ist wichtig, diese potenzielle Voreingenommenheit zu überwachen und zu berücksichtigen.
3. Verantwortung und Haftung: Bei der Verwendung von ChatGPT in einem Mediationsverfahren ist es wichtig zu klären, wer die Verantwortung für die Handlungen und Aussagen des Systems trägt. Sollte es zu unangemessenen oder fehlerhaften Empfehlungen oder Ratschlägen kommen, müssen klare Zuständigkeiten und Haftungsregelungen festgelegt werden.
4. Transparenz und Erklärbarkeit: ChatGPT ist ein komplexes neuronales Netzwerk, dessen Entscheidungsfindung für Menschen schwer nachvollziehbar sein kann. Dies kann das Vertrauen der Parteien in den Mediationsprozess beeinträchtigen. Es ist wichtig, so viel Transparenz wie möglich über die Funktionsweise des Systems zu bieten und zu erklären, dass ChatGPT als Unterstützung und nicht als vollständiger Ersatz für einen menschlichen Mediator dient.
5. Missbrauchspotenzial: Wie bei jeder Technologie besteht auch beim Einsatz von ChatGPT im Mediationsverfahren das Risiko des Missbrauchs. Wenn die Technologie beispielsweise dazu verwendet wird, eine Partei zu dominieren oder zu manipulieren, anstatt eine faire und ausgewogene Mediation zu ermöglichen, kann dies zu ungerechten Ergebnissen führen.
Es ist wichtig, diese ethischen Bedenken zu berücksichtigen und geeignete Maßnahmen zu ergreifen, um sicherzustellen, dass der Einsatz von ChatGPT im Mediationsverfahren ethisch vertretbar ist. Dies kann die Implementierung von Richtlinien, Schulungen und Überwachungsmechanismen umfassen, um sicherzustellen, dass die Technologie im Einklang mit ethischen Standards eingesetzt wird.“
Dem hat der Verfasser aktuell nichts hinzuzufügen!