Fachmann warnt vor Gefahr bei Trainieren von AI mit maschinengenerierten Daten: Kollaps droht

Index

Fachmann warnt vor Gefahr bei Trainieren von AI mit maschinengenerierten Daten: Kollaps droht

In einer aktuellen Warnung vor einer drohenden Gefahr bei der Verwendung von maschinengenerierten Daten für das Training von künstlicher Intelligenz (KI) hat ein Fachmann eindringlich davor gewarnt, dass ein Kollaps der Systeme droht. Laut Experten können diese Daten zu Fehlern und Verzerrungen in den KI-Modellen führen, die wiederum zu unbeabsichtigten Konsequenzen führen können. Der Fachmann betont, dass es dringend notwendig ist, die Qualität und Zuverlässigkeit dieser Daten zu überprüfen, um die Integrität der KI-Systeme zu gewährleisten. Die Warnung kommt zu einem Zeitpunkt, an dem die Verwendung von KI in vielen Branchen immer weiter verbreitet ist und die Abhängigkeit von maschinengenerierten Daten stetig wächst.

Fachmann warnt vor Kollaps der KI: Trainieren mit maschinengenerierten Daten gefährdet Stabilität

Die generative künstliche Intelligenz, wie sie in ChatGPT oder Gemini zu sehen ist, macht große Fortschritte und verbessert ihre Ergebnisse sukzessive, indem sie immer mehr menschlich wird. Allerdings könnte ein großes Problem auftreten, bekannt als Modellkollaps.

Das bedeutet, dass die künstliche Intelligenz, obwohl sie zunächst von menschengenerierten Daten gespeist wird, in Zukunft ausschließlich von Daten trainiert wird, die von anderen KI-Systemen generiert wurden. Dies könnte zu einer langsamen Verschlechterung ihrer Leistung führen.

Der Ursprung des Problems

Die großen Unternehmen wie OpenAI oder Google durchsuchen kontinuierlich das Internet, um Terabyte an Inhalten für ihre Chatbots zu sammeln. Seit dem Aufkommen dieser Technologie im Jahr 2022 teilen Menschen jedoch immer mehr Inhalte, die teilweise oder vollständig von KI-Systemen generiert wurden.

Wenn die KI-Systeme weiterhin mit von anderen KI-Systemen generierten Daten trainiert werden, würde dies zu einer Abnahme ihrer Leistung führen. Es ist, als wenn ein Student nur Enzyklopädien liest, die von anderen Studenten geschrieben wurden: Der Wissensbestand schrumpft mit der Zeit.

Folgen des Modellkollapses

Ein KI-System, das aufgrund des Modellkollapses immer dümmer wird, wäre ein möglicher Ausgang. Die Frage ist, ob die großen Technologieunternehmen einfach den Inhalt, der von KI-Systemen generiert wurde, filtern und nur menschengenerierte Inhalte verwenden können.

Leider ist dies nicht möglich, da es einen zu hohen ökonomischen Aufwand bedeuten würde. Die große Frage bleibt, ob dies das Ende der generativen KI bedeutet. Derzeit steigt die Anforderung an menschliche Arbeit, um neue KI-Systeme zu entwickeln, rapide an, und es ist möglich, dass die Welt bald keine neuen menschengenerierten Daten mehr hat.

Einige Schätzungen gehen davon aus, dass der Satz an menschengenerierten Textdaten bereits 2026 aufgebraucht sein könnte. Obwohl die Vorstellung eines katastrophalen Modellkollapses übertrieben sein mag, wird die Tatsache, dass dies jetzt auf dem Tisch liegt, die Unternehmen dazu anregen, Lösungen zu suchen.

Die Zukunft der generativen KI bleibt ungewiss, aber es ist sicher, dass die Unternehmen, die einen großen Teil ihres Geschäfts auf die KI setzen, dies nur als Hypothese betrachten werden.

Quellen: ComputerHoy

Schlagwörter: Künstliche Intelligenz, Daten, Software

Holger Schwarz

Als Journalist bei UB Computer, einer unabhängigen Zeitung mit den neuesten Nachrichten über Computer und Technologie, bin ich Holger stets bemüht, die aktuellsten Entwicklungen objektiv und präzise darzustellen. Durch meine Leidenschaft für Technologie und mein Streben nach Objektivität möchte ich unseren Lesern stets die besten Informationen bieten. Mit meinem tiefen Verständnis für die Themen, die wir behandeln, halte ich sie über die neuesten Trends und Innovationen in der Welt der Computerwelt auf dem Laufenden.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Go up