Wie ‘intelligente’ NFTs einige Warnzeichen setzen

Wie ‘intelligente’ NFTs einige Warnzeichen setzen

NFTs befinden sich auf einem klaren Kollisionskurs mit künstlicher Intelligenz, die theoretisch alle möglichen neuen Dienstprogramme freischalten wird, einschließlich KI-gesteuerter Avatare, die Gespräche führen können.

Da jedoch nur wenige Menschen verstehen, wie diese Art von KI funktioniert, ist es erschreckend einfach, Käufer zu täuschen. Kürzlich haben eine Handvoll sogenannter „intelligenter“ oder „intelligenter“ NFT-Projekte damit begonnen, digitale Nichtstuer zu prägen, sie als bahnbrechende „KI“ zu vermarkten, Unterstützung von einflussreichen Investoren zu erhalten und Wiederverkaufsrekorde zu brechen. Bald wird der Markt mit „KI-NFTs“ überschwemmt, von denen die überwiegende Mehrheit absolut NGMI sind (die es nicht schaffen werden).

Lauren Kunze ist CEO von Pandorabots, eine führende Chatbot-Plattform, die dialogorientierte KI-Anwendungen für Entwickler und globale Marken unterstützt, und ihre Tochtergesellschaft ICONIQ, die eine verkörperte KI erzeugt wie Kuki: ein Socialbot, der über eine Milliarde Nachrichten mit 25 Millionen menschlichen Fans ausgetauscht hat. Kunze zeichnet sich dadurch aus, KI und ihre Anwendungen in der realen Welt einem breiten Publikum zu erklären, einschließlich auf Konferenzen wie TEDx, Mobile World Congress und SXSW sowie für Publikationen wie TechCrunch, Quartz und Venturebeat. Sie hat auch vier Romane verfasst, die von HarperCollins veröffentlicht wurden, und hat einen Abschluss in Literatur und Sprache sowie Neurowissenschaften von Harvard.

Hier sind fünf rote Flaggen, auf die Sie achten sollten:

1) Es ist ein billiger Deepfake

Wenn Sie noch kein Deepfake-betriebenes, bewegendes Porträt gesehen haben, fühlt sich das erste Mal wie eine ernsthafte Harry-Potter-Magie an, die zum Leben erweckt wird. Aber diese scheinbare Zauberei ist durch zahlreiche kostenlose Apps (z. B. TokkingHeads, MyHeritage, Wombo) für reine Muggel durchaus zugänglich, mit denen Sie jedes Bild basierend auf einem Quellvideo in Deepfake-Inhalte verwandeln können. Wenn Sie also NFTs erstellen oder bereits besitzen und diese verschieben möchten, können Sie dies kostengünstig selbst tun. Alles, was über eine minimale Bewegung hinausgeht, wie Blinzeln oder Atmen, kann die Illusion aufgrund unvermeidlicher Inkongruenzen zwischen dem Bild und dem zugrunde liegenden Quellvideo stören. Wenn Sie also einen sich bewegenden NFT sehen, der sich nicht viel bewegt, verwendet er mit ziemlicher Sicherheit eine handelsübliche Deepfake-Software und keine spezielle geheime KI-Soße.

Diese billigen Deepfakes werden verwendet, um für Dinge wie Porträts historischer Persönlichkeiten zu werben, die, wenn sie an GPT-3 angeschlossen sind, sich in Echtzeit mit Ihnen unterhalten können. Die Sache ist die, dass für die Durchführung einer Echtzeit-Konversation mit einer KI ein 3D-CG-Modell erforderlich ist. Wenn Sie also über einen Deepfake stolpern, der als fähig beworben wird, sich in Echtzeit zu unterhalten, sollten die Alarmglocken läuten, da Deepfakes nicht wirklich autonom laufen. Vielmehr verlassen sie sich darauf, während der Postproduktion das Gesicht einer Person auf einem Schauspieler in einem Video zu überlagern (z. Zuck auf Trey Parker oder Tom Cruise bei einem talentierten TikTok-Imitator) oder während eines Videoanrufs (sagen wir Deep Elon Zoom-Bombardierung mit freier Software wie Avatarisieren).

2) Es verwendet GPT-3 oder hat andere Abhängigkeiten von Drittanbietern

Das Sprachmodell Generative Pre-trained Transformer 3 (GPT-3) ist bei der Generierung von Wörtern und Bildern im Stil einer bestimmten Person oder eines bestimmten Genres erstaunlich, wenn genügend Beispiele vorhanden sind. Riesige, generative Sprachmodelle – abgesehen davon, dass sie langsam antworten und so teuer zu trainieren sind, dass GPT-3, das vor COVID-19 trainiert wurde, nicht weiß, dass das Virus existiert – werden im öffentlichen Internet trainiert, was ein bisschen dem Trinken aus der Öffentlichkeit ähnelt Toilette. Menschen haben auch typischerweise einen Toilettenmund Monster wenn man im Internet mit Software (und untereinander) spricht, aber auch die menschlichen Spieler eines GPT-3-gestützten Rollenspiels waren gestört als der Algorithmus Kinder in sexuelle Szenarien einfügte. Deshalb achtet OpenAI sehr darauf, stark einzuschränken Chatbot Anwendungsfälle – und warum jedes NFT-Projekt, das vorgibt, GPT-3 zu verwenden, insbesondere um zusätzliche „Persönlichkeiten“ anzutreiben, die Augenbrauen hochziehen sollte.

Nach Jahren in der begrenzten Beta mit einer langen Warteliste hat OpenAI gerade angekündigt, dass seine GPT-3-API jetzt verfügbar ist allgemein erhältlich an Entwickler. (Bis und es sei denn, Microsoft – das finanziert und anscheinend exklusiv lizenziert GPT-3 – schließt „offene“ KI.) Bisher haben einige Emporkömmlinge mit Early Access GPT-3 verwendet, um einzigartige „Persönlichkeiten“ für Ihr NFT zu erstellen und zu verkaufen. Aber jetzt, da die API wirklich für alle offen ist, kann in Wirklichkeit jeder eine GPT-3-basierte „Persönlichkeit“ generieren, indem er ihr ein paar Beispieltexte füttert. Ob OpenAI es Ihrem speziellen Anwendungsfall ermöglicht, live zu bleiben, ist eine andere Geschichte. Im vergangenen Sommer veröffentlichte der Chronicle eine herzzerreißende Geschichte über einen Mann, der einen GPT-3-betriebenen Dienst nutzte um seinen toten Verlobten zu bringen nach ihren Texten wieder zum Leben erweckt. Monate später, in einer herzzerreißenden Wendung, OpenAI den Dienst geschlossen ohne Vorwarnung wegen Verletzung der strengen Bedingungen; Joshuas Verlobte Jessica starb im Wesentlichen zweimal. GPT-3 NFTs können das gleiche Schicksal erleiden. Bei NFTs geht es letztendlich um verifizierte Eigentumsrechte. Wenn Ihre gesprächige „KI“ NFT von Drittanbieterdiensten abhängt, die der Verkäufer weder besitzt, entwickelt noch kontrolliert, was genau besitzen Sie dann?

3) KI ist „auf der Roadmap“ (und überall in den Marketingmaterialien)

Während die Verwendung von GPT-3 oder jede Abhängigkeit von Drittanbietern Grund für eine ernsthafte Pause sind, ist „KI“ in den Marketingmaterialien oder der Roadmap eines Projekts ohne Beweise für ihre Existenz im tatsächlichen Produkt ein Warnsignal. KI ist keine Zutat, die jeder einfach in die Mischung hinzufügen kann, sofern mehr Ressourcen und mehr Zeit zur Verfügung stehen. Angesichts der jüngsten Aufregung um einige KI-NFT-Projekte stellen die Leute Projekte jetzt fast so schnell mit „KI“ voran, wie sie „Metaverse“ an alles anhängen.

4) Das Team hat keinen KI-Hintergrund

Im Zweifelsfall ist die Teamseite eines Projekts normalerweise aufschlussreich, ob es darum geht, eine ehrgeizige KI-Roadmap zu erreichen. Keine KI-Expertise = riesige rote Fahne.

Selbst Teams mit KI-Know-how haben oft Schwierigkeiten, Ergebnisse zu erzielen. Beispielsweise, Kleine Sophia: eine Miniatur des unheimlichen Humanoiden Sophia Roboter das seit 2019 mehrere Crowdfunding-Runden durchgeführt hat, mit einem sich ständig zurückziehenden Versanddatum (Dezember 2022 zum jetzigen Zeitpunkt) und immer wütender, desillusionierte Unterstützer. Sophia, die machte Schlagzeilen im Mai für den Verkauf eines NFT, das fälschlicherweise behauptete, die erste digitale Kunst eines Nichtmenschen zu sein, und dessen Schöpfer dies angegeben haben „im Grunde lebendig“ ist ein großer Teil der KI-Hype-Problem. (Der für 688.888 US-Dollar versteigerte NFT wurde in der Tat in Zusammenarbeit mit einem echten menschlichen Künstler erstellt und ist jahrzehntelang älter als KI-Digitalkünstler wie Harold Cohens Aaron).

Wenn es um die breite Öffentlichkeit geht, sind leider diese Marketing-Gimmicks, einschließlich Gewährung Sophias saudi-arabische Staatsbürgerschaft scheint tatsächlich zu funktionieren. 2017 zog ein Ableger des Teams hinter Sophia auf 36 Millionen US-Dollar in weniger als einer Minute in einem Initial Coin Offering zum Aufbau von „Artificial General Intelligence“ oder dezentralem „AGI“ auf der Blockchain. Als ich das letzte Mal überprüft habe, müssen sie – zusammen mit den Technologiegiganten und Top-KI-Forschern – AGI noch lösen. Die Moral der Geschichte: Selbst wenn das Team über KI-Erfahrung verfügt, kann es immer noch zu kurz kommen, und wenn sein Haupthintergrund in ICOs, Marketing oder anderen Plänen liegt, um schnell reich zu werden, ist es möglicherweise an der Zeit, für die Berge zu rennen.

5) Eine Rose mit einem anderen Namen riecht… wie eine Tulpe

Apropos Marketing, der Typ, der den analogen Pet Rock erfunden hat, war ein Genie. (Auch Millionär, nach dem Verkauf über a Millionen Haustierfelsen für vier Dollar pro Pop.) Die Steine ​​waren nur Steine, mit einer süßen, mit Wortspielen gefüllten Pflege- und Fütterungsanleitung (Spoiler-Alarm: sie brauchten keine) in einem Karton verpackt. Aber sie als “Haustier” zu bezeichnen, löste eine Modeerscheinung aus, die mit Beanie Babies oder, wie ich sagen darf, Bored Apes vergleichbar ist. Nämlich das sogenannte „erste iNFT“, das verkauft bei Auktion bei Sotheby’s für fast eine halbe Million Dollar, ist eigentlich nur ein Chatbot, der an einen Avatar angehängt ist: eine Technologie, die zwar weniger alt ist als Felsen, aber seit den 1960er Jahren existiert. Was völlig in Ordnung ist, solange Käufer wissen, dass das, was sie kaufen, tatsächlich nur ein verkörperter Chatbot mit einem anderen Namen ist.

Unabhängig von der Verpackung sind Chatbot-betriebene Avatare – ähm – KI-NFTs eine vielversprechende „neue“ Kategorie (ähnlich wie die Metaverse eine “Zweites Leben”). NFTs werden den digitalen Besitz revolutionieren und Geld dorthin bringen, wo es richtig hingehört: zurück in die Hände der Schöpfer. Aber auch wenn die Branche andere Hürden wie ihre überwindet hoher CO2-Fußabdruck, werden wir es nur dann in den Mainstream schaffen, wenn wir gemeinsam auf Betrug und Lärm hinweisen, damit qualitativ hochwertige Arbeit glänzen kann.



Source link

Leave a Reply

Your email address will not be published. Required fields are marked *