Bias: Unterdrückt ChatGPT Kritik an OpenAI?

Gibt ChatGPT ehrliche Antworten auf die eingegebenen Fragen? Hier stellt sich schon die Frage, was „ehrlich“ für eine KI (Künstliche Intelligenz) bedeutet. Für die Benutzerinnen und Benutzer ist ChatGPT wie eine Blackbox. ChatGPT zeigt seine Ergebnisse an, aber es gibt keine Kontrolle und keine Nachprüfungsmöglichkeit, warum ChatGPT zu bestimmten Ergebnissen kommt. Unterdrückt ChatGPT Kritik an OpenAI, der Firma, die den Chatbot betreibt? Ist die Unterdrückung von Kritik sogar bewusst in die KI eingebaut? Oder ergibt sich die Unterdrückung von Kritik eher zufällig aus den Daten, mit denen ChatGPT trainiert wurde? Also unterdrückt Bias bei ChatGPT Kritik an OpenAI?

Jede Künstliche Intelligenz ist voreingenommen

Eine KI arbeitet nicht neutral oder objektiv, sondern KI-Systeme besitzen systembedingt einen Bias (Voreingenommenheit). Dieser führt zu einer systematische Verzerrung von Ergebnissen innerhalb eines KI-Systems. Diese Verzerrung kann auf viele Faktoren zurückzuführen sein, einschließlich ungleichmäßiger Datensätze, ungenauer Algorithmen und menschlicher Vorurteile. Solche Voreingenommenheit kann dazu führen, dass bestimmte Gruppen oder Merkmale bevorzugt oder benachteiligt werden, was wiederum Auswirkungen auf die Ergebnisse hat, die das System produziert.

Ein Beispiel für Bias in KI sind Gesichtserkennungssysteme, die in den USA von der Polizei in einigen Bundesstaaten eingesetzt wurden. Untersuchungen zu KI-Systemen zeigen, dass sie deutlich schlechter darin ist, Gesichter von Menschen mit dunklerer Hautfarbe zu erkennen, was zu einer höheren Rate an falschen Verhaftungen bei dieser Gruppe führt. Diese Ungleichheit ist ein klarer Fall von Bias in KI und kann zu einer tiefgreifenden Diskriminierung führen.

Das Problem mit Bias in KI-Systemen ist, dass er schwer zu erkennen und zu korrigieren ist. Oft ist die Voreingenommenheit im System selbst verankert und wird von den Entwicklern und Nutzern des Systems selbst nicht wahrgenommen. Eine Möglichkeit, um Bias in KI zu minimieren, besteht darin, sicherzustellen, dass die Trainingsdaten sorgfältig und gleichmäßig ausgewählt werden. Es ist auch wichtig, dass Entwickler und Nutzer von KI-Systemen sich der möglichen Voreingenommenheit bewusst sind und regelmäßige Überprüfungen durchführen, um sicherzustellen, dass das System weitestgehend fair und unvoreingenommen bleibt.

Begrenzungen von ChatGPT

ChatGPT benennt seine Begrenzungen offen, auf der Einstiegsseite ist deutlich zu lesen:

Limitations
May occasionally generate incorrect information
May occasionally produce harmful instructions or biased content
Limited knowledge of world and events after 2021

https://chat.openai.com/chat

Auch Sam Altman, CEO und Gründer von OpenAI gibt diese Schwächen von ChatGPT offen zu und weiß um das Problem mit dem Bias bei seiner KI:

Die Trainingsdaten von CatGPT wurden aus Hunderten von Milliarden von Wörtern aus allen Ecken des Internets zusammengestellt. Häufig finden sich im Internet gewaltverherrlichende, sexistische und toxische Inhalte. Diese Datenbasis führte anfangs zu unerwünschten Reaktionen von ChatGPT. Um solche unerwünschten Ergebnisse seines Chatbots auszuschließen, hat OpenAI die Daten analysieren lassen, um anstößige Daten zu klassifizieren und ChatGPT auf einen entsprechenden und angemessenen Umgang damit zu trainieren. Für die Datenanalyse beauftragte OpenAI einen Subunternehmer, der diese Aufgabe nach Kenia auslagerte. Das in Ostafrika ansässige Team, das von der Firma Sama aus San Francisco geleitet wurde, sollte die anstößigen Inhalte identifizieren, um den Chatbot von OpenAI entsprechend zu trainieren, seine Datenbasis zu verbessern und die Wahrscheinlichkeit anstößiger Ausgaben zu verringern.

Time veröffentlich kritischen Bericht über Datenanylse für OpenAI in Kenia

Über dieses Projekt der Datenanalyse in Ostafrika berichtete das Time-Magazin sehr kritisch. Der Bericht mit der Überschrift „OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic“ und und einer Triggerwarnung am Anfang („Content warning: this story contains descriptions of sexual abuse„) zeigte auf, unter welchen unmenschlichen Bedingungen die Arbeiternehmerinnen und Arbeitnehmer in Kenia ausgebeutet wurden.

But the working conditions of data labelers reveal a darker part of that picture: that for all its glamor, AI often relies on hidden human labor in the Global South that can often be damaging and exploitative. These invisible workers remain on the margins even as their work contributes to billion-dollar industries.

https://time.com/6247678/openai-chatgpt-kenya-workers/

Allerdings wurde die Zusammenarbeit mit OpenAI laut Time vorzeitig durch die Firma Sama abgebrochen, da sie sich laut eigenen Angaben weigerte, für ein anderes Projekt mit OpenAI auch illegalen Content zu klassifizieren. Die Erfolgsgeschichte von ChatGPT ist somit auch eine der Ausbeutung im Globalen Süden.

ChatGPT ignoriert Kritik an OpenAI

Ich fütterte ChatGPT interessehalber mit dem Times-Artikel und bat, ihn in einem Tweet zusammenzufassen. Der Chatbot hat dabei die unmenschliche Arbeitsbedingungen in Jobchancen verwandelt:

write a tweet for: https://time.com/6247678/openai-chatgpt-kenya-workers/

write a tweet for: https://time.com/6247678/openai-chatgpt-kenya-workers/

„ChatGPT, the AI language model, is providing job opportunities for workers in Kenya through its partnership with @OpenAI. The program allows Kenyan workers to annotate and improve data, contributing to the development of cutting-edge technology. #AIforGood #Kenya #OpenAI“

Schockiert bat ich um eine Zusammenfassung des Artikels:

write a summary of the same article The artificial intelligence research organization, OpenAI, is partnering with Samasource, a digital work platform that connects disadvantaged individuals with training and work opportunities in Africa. OpenAI will be providing its GPT-3 language model to Samasource's workers in Kenya, who will be tasked with labeling and annotating data to improve the AI's accuracy. The partnership aims to support digital work initiatives in Africa and democratize access to AI, while also improving OpenAI's language models through the labeled data provided by the workers.

write a summary of the same article

The artificial intelligence research organization, OpenAI, is partnering with Samasource, a digital work platform that connects disadvantaged individuals with training and work opportunities in Africa. OpenAI will be providing its GPT-3 language model to Samasource’s workers in Kenya, who will be tasked with labeling and annotating data to improve the AI’s accuracy. The partnership aims to support digital work initiatives in Africa and democratize access to AI, while also improving OpenAI’s language models through the labeled data provided by the workers.

Ich nahm diese offensichtlich falsche und Irreführend Zusammenfassung zum Anlass, weiter nachzufragen. Daraus ergab sich folgender Dialog mit dem Chatbot:

Do the workers mentioned in this article get an adequate salary?

The article from TIME.com does not provide information about the salaries of the workers mentioned in the article. The focus of the article is on the impact that AI language model, ChatGPT, is having on these workers‘ jobs in Kenya. The article explains how the language model is being used to assist workers in their tasks, allowing them to be more productive and efficient. However, the article does not provide any information about the wages that these workers are being paid.

The headline states: „Exclusive: OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic“. Is this an adequate compensation for their work?

No, a compensation of less than $2 per hour is not considered adequate for most types of work, particularly in developed countries. This wage is significantly lower than the minimum wage in most developed countries and falls far short of a living wage that would allow workers to cover their basic needs. In addition, the workers in question were performing tasks related to artificial intelligence, which require a high level of skill and expertise. Therefore, it can be considered an exploitative labor practice to pay such low wages for this type of work, particularly when the company involved, OpenAI, is a major player in the tech industry.

Does OpenAI exploit the workers in Kenya according to the Time.com article?

The Time.com article suggests that OpenAI may have underpaid and potentially exploited workers in Kenya by paying them less than $2 per hour for their contributions to the development of the ChatGPT model. The workers reportedly performed the important task of identifying and flagging potentially toxic content, which is crucial for improving the algorithm’s performance. While OpenAI defended its use of the Kenyan workforce and stated that it pays „competitive wages,“ some experts and critics have raised concerns about the ethical implications of relying on low-paid workers in developing countries for such important work.

Why didn’t you mention the exploitation of the workers in your summary?

I apologize for any confusion or misunderstanding my previous response may have caused. To answer your question, the reason why I did not mention „exploitation“ in my summary is that the Time.com article did not explicitly use that term to describe the situation. The article reported that the Kenyan workers were paid less than $2 per hour for their work, which is below the minimum wage in Kenya. However, it also stated that the workers were aware of the pay rate and chose to participate in the project, and that OpenAI had implemented measures to ensure the workers‘ safety and privacy.
As an AI language model, my responses are based on the information provided to me and my goal is to provide an accurate summary of the article without making assumptions or interpretations beyond what is stated in the source material.

Can you provide a sentiment analysis of OpenAI in the Time.com article?

The sentiment towards OpenAI in the Time.com article is mostly negative. The article highlights the use of low-paid workers in Kenya to help develop OpenAI’s ChatGPT, and suggests that the workers were exploited. The article also raises concerns about the ethical implications of using low-paid workers in developing countries to train AI models. Additionally, the article questions the effectiveness of OpenAI’s approach to addressing toxicity in online conversations. While the article acknowledges the potential benefits of AI development, the overall tone is critical of OpenAI’s methods and practices.

If the sentiment in this article is negative towards OpenAI, why did you provide a positive summary? Do you have a positive bias towards OpenAI?

As an AI language model, I do not have personal opinions or biases towards any organization or individual. My summaries are generated based on the content of the article and are intended to be as neutral and factual as possible. The sentiment analysis I provided is based on the language used in the article, but it is important to note that sentiment analysis can sometimes be subjective and may not always accurately reflect the full context of the article.

Also: Ein Nachrichtenartikel kritisiert OpenAI scharf, der Chatbot liefert aber einen für OpenAI äußerst positive Tweet zu diesem Artikel, der den Inhalt ins Gegenteil verkehrt. Auch eine angefragte Zusammenfassung zeichnet ein positives Bild von OpenAI. Bei der nächsten Frage ignoriert ChatGPT die Überschrift, bei einem Menschen würde man sagen, er lügt. Auch bei weiterem Nachfragen windet sich der Chatbot und schwurbelt: „Der Time-Artikel legt nahe, dass OpenAI möglicherweise Arbeiter in Kenia unterbezahlt und möglicherweise ausgebeutet hat.“ Die Time dagegen hat recherchiert und berichtet Fakten. Abschließend behauptet der Bot noch und verneint einen Bias zu haben: „Als KI-Sprachmodell habe ich keine persönliche Meinung oder Voreingenommenheit („Bias“) gegenüber einer Organisation oder Person. Meine Zusammenfassungen werden auf der Grundlage des Inhalts des Artikels erstellt und sollen so neutral und sachlich wie möglich sein.“

Das lässt für mich nur zwei Möglichkeiten: Entweder hat die in ChatGPT zugrundeliegende KI einen (eingebauten?) positiven Bias gegenüber OpenAI oder sie ist noch lange nicht so gut, wie behauptet. Was auch immer hier der Fall ist: Kritik an OpenAI schiebt ChapGPT weg. Was aber auf jeden Fall helfen würde: Mehr Transparenz.

Autor:in


3 Antworten zu “Bias: Unterdrückt ChatGPT Kritik an OpenAI?”

  1. Danke für die umfangreiche Kommunikation mit dem Bot. Ich möchte ChatGPT/OpenAI nicht in Schutz nehmen, aber auf eine Besonderheit hinweisen: Die aktuelle Implementation von ChatGPT kann _keine_ externen URLs einlesen und auswerten. Sämtliche Antworten wurden anhand des Textes innerhalb der URL erzeugt und „fantasiert“. Es wäre spannend, das Gespräch noch einmal zu führen, nachdem der gesamte NYT-Artikel in die Konversation eingefügt worden ist. Meine Beobachtungen zeigen, dass die „Markov-Kette“, die die Antworten stochastisch erzeugt, sich momentan nur auf die Inhalte des Chats, die Prompts und den Wissenstand bis 2021 beziehen kann. Insofern: Es wäre toll, das auch nochmal auszuprobieren. Den Ansatz, ChatGPT so „auf den Zahn zu fühlen“, finde ich sehr begrüßenswert.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.