Near Protocol hat einen ehrgeizigen Plan vorgestellt, das größte Open-Source-Künstliche-Intelligenz-Modell der Welt zu bauen, enthüllt am Eröffnungstag der Redacted Konferenz in Bangkok, Thailand.
Das Modell mit 1,4 Milliarden Parametern wäre 3,5-mal größer als das aktuelle Open-Source-Llama-Modell von Meta.
Das Modell wird durch wettbewerbsorientierte, crowdsourced Forschung und Entwicklung erstellt, mit Tausenden von Beitragsleistenden im neuen Near AI Research Hub.
Ab heute können Teilnehmer mit dem Training eines kleineren Modells mit 500 Millionen Parametern beginnen.
Das ehrgeizige KI-Modell von Near Protocol
Das Projekt wird in Umfang und Komplexität über sieben Modelle wachsen, wobei nur die besten Beitragsleistenden zu progressiv komplexeren und größeren Modellen aufsteigen. Die Modelle werden monetarisiert und die Privatsphäre wird durch den Einsatz verschlüsselter Trusted Execution Environments gewährleistet.
Auf diese Weise können Beitragsleistende belohnt werden, und es werden kontinuierliche Updates gefördert, während sich die Technologie weiterentwickelt.
Die kostspielige Ausbildung und die erforderliche Rechenkapazität werden durch Tokenverkäufe finanziert, so Near Protocol Mitbegründer Illia Polosukhin.
Er erklärte:
Es kostet etwa 160 Millionen Dollar, also ist es viel, aber in Kryptowährungen ist dies Geld, das aufgebracht werden kann.
Polosukhin fügte hinzu:
Tokenhalter werden für alle Inferenzprozesse, die stattfinden, wenn dieses Modell verwendet wird, entschädigt. Wir haben also ein Geschäftsmodell, eine Möglichkeit zur Monetarisierung, eine Methode zur Mittelbeschaffung und einen Zyklus, der es ermöglicht, auch in das nächste Modell zu investieren.
Near ist eines der wenigen Projekte im Bereich der Kryptowährungen mit den Fähigkeiten, ein derart ehrgeiziges Vorhaben zu verwirklichen. Polosukhin war einer der Autoren des bahnbrechenden Transformer-Forschungspapiers, das zu ChatGPT führte, und Mitbegründer Alex Skidanov arbeitete bei OpenAI vor der Veröffentlichung dieses Modells im Jahr 2022.
Dezentralisierte KI und Datenschutzfragen
Um ein Modell dieser Größe zu trainieren, würde das Projekt Zehntausende von GPUs an einem Standort benötigen, was nicht ideal wäre.
Um ein dezentrales Netzwerk von Rechenkapazität zu nutzen, wäre neue Technologie erforderlich, die derzeit noch nicht existiert, da alle heutigen verteilten Trainingsmethoden sehr schnelle Interkonnektivität erfordern.
Polosukhin gab an, dass er noch nicht mit bestehenden Projekten wie der Artificial Superintelligence Alliance gesprochen habe, aber er wäre daran interessiert, mögliche Kooperationsmöglichkeiten zu erforschen.
Unabhängig davon, was passiert, sagte er, muss die dezentralisierte KI-Technologie für uns alle erfolgreich sein.
Dies ist wahrscheinlich die wichtigste Technologie der Gegenwart und wahrscheinlich auch der Zukunft. Und die Realität ist, wenn KI von einem einzigen Unternehmen kontrolliert wird, folgen wir effektiv allem, was dieses Unternehmen sagt.
Snowden fügte hinzu:
Wenn die gesamte KI und effektiv die gesamte Wirtschaft von einem Unternehmen gesteuert wird, gibt es in diesem Moment keine Dezentralisierung mehr. Es ist daher der einzige Weg, wie Web3 philosophisch relevant bleibt, wenn wir eine KI haben, die denselben Prinzipien folgt.