ein interessantes Kommentar dazu:
Ich sehe zwei mögliche Szenarien am Horizont
Szenario 1:
KI wird gegenüber dem jetzt sichtbaren Niveau (GPT4) nochmals massiv verbessert und kann tatsächlich praktisch alles besser als Menschen - programmieren, Musik komponieren, Filme drehen, Bücher schreiben, Software-Architektur designen, einfach alles.
Möglich ist das schon, da müssen wir ehrlich sein. Der KI-Hype ist fundierter und substanziierter als etwa der Blockchain-Hype. Was die Technik jetzt schon kann, ist beeindruckend. Und besser als viele (mäßig begabte) Menschen ist sie schon jetzt bei sehr vielen Tätigkeiten. Da ist alles drin, bis hin zum Terminator-Szenario - das ja auch sehr ernstzunehmende Persönlichkeiten wie Stephen Hawking für eine reale Bedrohung hielten oder halten.
Szenario 2:
Es gelingt nicht, die KIs "noch intelligenter" zu machen. Auch das könnte passieren. Warum? Weil KIs jetzt schon mit praktisch dem gesamten verfügbaren Wissen der Menschheit trainiert werden, es wachsende Widerstände dagegen gibt, wichtige Archive wie etwa das der New York Times den KI-Bots zugänglich zu machen, und nicht zuletzt immer mehr Texte des freien Internets selbst von KIs geschrieben werden. In der Forschung zeichnet sich ab, dass das Trainieren von KIs mit KI-Texten langfristig zu Stagnation oder sogar "Verdummung" der KI führt. Es ist eine Art Resonanzkatastrophe.
Im Endeffekt könnte hier zum Tragen kommen, was man aus den meisten Ingenieurproblemen kennt: Die ersten 98% sind wesentlich einfacher als die letzten 2%. Es wird immer schwieriger, die KIs noch besser zu machen, je besser sie bereits sind. Gleichzeitig müssen immer mehr Ressourcen dafür aufgewendet werden. Es wird der Punkt kommen, wo es sich nicht mehr lohnt, noch mehr Geld in eine KI mit noch mehr Parametern zu stecken, die noch mehr Ressourcen zum Training benötigt, während gleichzeitig der Nachschub an hochwertigem Trainingsmaterial ausgeht. Wie nahe wir dieser Stagnation sind, kann ich nicht sagen, aber eigentlich muss das irgendwann passieren. Denn keine Entwicklung setzt sich ins Unendliche fort in einer Welt der begrenzten Ressourcen. Auch die Jagd nach mehr MHz bei den CPUs fand ihr Ende.
Letztlich muss das Training einer KI, die noch einmal ein wenig besser ist, aber Hunderte Millionen oder Milliarden Dollar mehr kostet als ihr Vorgänger, ja erst einmal bezahlt werden von Ergebnissen, die die Vorgänger-KI nicht hätte liefern können. Sonst wäre das kein Business Case. Man dachte in den 70ern auch, die Zukunft der Luftfahrt liege im Überschallflug, aber es stellte sich heraus, dass nur ganz wenige Menschen für ein paar Stunden weniger Flugzeit den vierfachen Flugpreis bezahlen wollten und "normale" Verkehrsflugzeuge einfach für praktisch jeden schnell genug sind. Es wird KIs geben, die "gut genug" sind. Und es wird einerseits sehr teuer und schwierig werden, sie noch besser zu machen, und es wird andererseits nur begrenzte Nachfrage danach geben.
Ich halte beide Szenarien für möglich und weiß nur eines sicher: Die Zukunft bleibt spannend. ->
https://www.heise.de/forum/heise-on...-Szenarien-am-Horizont/posting-43911951/show/
Jim Keller über KI: "In 10 Jahren ist alle Software weg"
Der bekannte Chipdesigner Jim Keller hat in einem Interview seine Visionen für KI breit dargelegt. Das schwankt zwischen Größenwahn und Realismus.
https://www.heise.de/news/Jim-Keller-ueber-KI-In-10-Jahren-ist-alle-Software-weg-9692706.html