Blockchain alapú gépi tanulási piacterek

A blokklánc-alapú piacok adataira kiképzett gépi tanulási modellek képesek létrehozni a világ legerősebb mesterséges intelligenciáját. Két erős primitívumot kombinálnak: a magángép-tanulás, amely lehetővé teszi az érzékeny magán adatokra való képzést, anélkül, hogy azt felfednék, és a blokklánc-alapú ösztönzők, amelyek lehetővé teszik ezeknek a rendszereknek a legjobb adatok és modellek vonzását, hogy okosabbá tegyék őket. Ennek eredményeként nyílt piacterek jelennek meg, ahol bárki eladhatja adatait, és adatát magántulajdonban tudja tartani, míg a fejlesztők ösztönzőket használhatnak arra, hogy az algoritmusukhoz legjobban megfelelő adatokat vonzzák számukra.

Ezeknek a rendszereknek a felépítése kihívást jelent, és a szükséges építőelemeket még mindig készítik, ám az egyszerű kezdeti verziók úgy tűnnek, mintha már lehetővé válnának. Úgy gondolom, hogy ezek a piacterek a Web 2.0 adatmonopóliumainak jelenlegi korszakából átalakítanak minket az adatok és algoritmusok nyílt versenyének Web 3.0 korszakába, ahol mindkettőt közvetlenül bevételszerzik.

Eredet

Ennek az ötletnek az alapja 2015-ben az volt, hogy Numerai Richarddal beszélgettünk. A Numerai egy fedezeti alap, amely titkosított piaci adatokat küld minden adattudósnak, aki versenyben akar lenni a tőzsde modellezésében. Numerai ötvözi a legjobb modellel kapcsolatos beadványokat egy „metamodellre”, megcseréli azt a metamodellt, és fizet olyan tudósoknak, akiknek a modellje jól teljesít.

Az adattudósok versenytársainak ötlete nagyszerűnek tűnt. Tehát arra gondoltam: készíthetsz-e egy teljesen decentralizált verziót a rendszerről, amelyet bármilyen problémára lehet általánosítani? Úgy gondolom, hogy a válasz igen.

Építés

Például próbáljuk meg létrehozni egy teljesen decentralizált rendszert a kriptovaluták kereskedelmére decentralizált tőzsdékben. Ez egy a sok lehetséges konstrukció közül:

Adat Az adatszolgáltatók bevonják az adatokat, és elérhetővé teszik azokat a modellezők számára.

Modellépítő A modellezők kiválasztják, hogy mely adatokat használja, és készítsen modelleket. Az oktatást biztonságos számítási módszerrel végzik, amely lehetővé teszi a modellek kiképzését az alapul szolgáló adatok feltárása nélkül. A modellek szintén tétben vannak.

Metamodell felépítése A metamodell egy algoritmus alapján jön létre, amely figyelembe veszi az egyes modellek ragaszkodását.

Metamodell létrehozása nem kötelező - elképzelheti azokat a modelleket, amelyeket használnak anélkül, hogy egy metamodellgé kombinálnák.

A metamodell használata Az intelligens szerződés átveszi a metamodellt és programozza a programozást a láncon belüli decentralizált cseremechanizmusokon keresztül.

A nyereség / veszteség elosztása Néhány időszak elteltével a kereskedelem nyereséget vagy veszteséget hoz. Ezt a profitot vagy veszteséget felosztják a metamodell közreműködői között annak alapján, hogy mennyire okosabbak lettek. A negatív módon hozzájáruló modellek részben vagy egészben megtették a kockázati forrásaikat. Ezután a modellek megfordulnak, és hasonló disztribúciókat / tétcsökkentéseket hajtanak végre az adatszolgáltatókkal.

Igazolható számítás Az egyes lépések kiszámítását centralizáltan hajtják végre, de ellenőrizhetőek és megtámadhatóak egy igazolási játék, például Truebit segítségével, vagy decentralizált, biztonságos többpártos számítás segítségével.

A tárhely-adatok és a modellek vagy az IPFS-en tárolódnak, vagy csomópontokkal vannak ellátva egy biztonságos többpártos számítási hálózatban, mivel a láncú tárolás túl drága lenne.

Mi teszi ezt a rendszert erőteljesvé?

A legjobb adatok globális vonzására irányuló ösztönzők Az adatok vonzására irányuló ösztönzők a rendszer legerősebb része, mivel az adatok általában a korlátozó tényezők a legtöbb gépi tanulás során. Ugyanígy, a Bitcoin nyílt ösztönzők révén létrehozta a világon a legtöbb kiszámítható teljesítményű feltörekvő rendszert, az adatok megfelelően megtervezett ösztönző struktúrája a világ legjobb adatait eredményezné az Ön alkalmazásához. És szinte lehetetlen olyan rendszert leállítani, ahol az adatok több ezer vagy millió forrásból származnak.

Algoritmusok közötti verseny Nyitott versenyt hoz létre a modellek / algoritmusok között azokon a helyeken, ahol korábban nem létezett. Képzeljen el egy decentralizált Facebook-ot, több ezer versengő hírcsatorna-algoritmussal.

A jutalmak átláthatósága Az adatok és a modellszolgáltatók láthatják, hogy megkapják a beküldött adatok valós értékét, mivel minden számítás ellenőrizhető, így sokkal nagyobb valószínűséggel vesznek részt.

Automatizálás Ha láncolunk, és közvetlenül hozunk létre értéket a tokenben, akkor automatikus és megbízhatatlan zárt hurkot hozunk létre.

Hálózati hatások A felhasználók, az adatszolgáltatók és az adattudósok többoldalú hálózati hatása révén a rendszer önerősítővé válik. Minél jobban teljesít, annál több tőkét vonz, ami több potenciális kifizetést jelent, ami több adatszolgáltatót és adatszakértőt vonz, akik okosabbá teszik a rendszert, ami viszont több tőkét vonz, és visszatér.

Magánélet

A fenti pontokon túl fontos szempont a magánélet védelme. Ez lehetővé teszi 1) az emberek számára, hogy olyan adatokat nyújtsanak be, amelyek egyébként megoszthatatlanok lennének, és 2) megakadályozzák az adatok és modellek gazdasági értékének kiszivárogtatását. Ha az adatok és a modellek titkosítatlanul maradnak, azokat ingyenesen lemásolják, és mások használhatják azokat, akik nem járultak hozzá semmilyen munkához (a „szabad versenyző” problémája).

A szabad versenyző problémájának részleges megoldása az adatok magántulajdonban történő értékesítése. Még ha a vásárlók ismételten továbbadják vagy kiadják az adatokat, az érték idővel csökken. Ez a megközelítés azonban a rövid ideig tartó használati esetekre korlátozza minket, és továbbra is tipikus adatvédelmi aggályokat vet fel. Ennek eredményeként a bonyolultabb, de hatékony módszer a biztonságos számítás egyik formájának használata.

Biztonságos számítás

A biztonságos számítási módszerek lehetővé teszik a modellek számára az adatok kiképzését anélkül, hogy magát az információt feltárnák. A biztonságos számítás három fő formáját használják és vizsgálják manapság: homomorf titkosítás (HE), biztonságos többpárt számítás (MPC) és nulla tudásbizonyítás (ZKP). A többpártos számítást jelenleg a leggyakrabban a magángép-tanuláshoz használják, mivel a homomorf titkosítás általában túl lassú, és nem egyértelmű, hogyan lehet a ZKP-ket alkalmazni a gépi tanulásra. A biztonságos számítási módszerek a számítástechnikai kutatások legszélesebb körén helyezkednek el. Ezek gyakran nagyságrenddel lassabbak, mint a szokásos számítások, és jelentik a rendszer fő szűk keresztmetszetét, ám az utóbbi években javultak.

A végső ajánló rendszer

A magángép-tanulás lehetőségeinek szemléltetése érdekében képzeljünk el egy „The Ultimate ajánlórendszer” nevű alkalmazást. Figyeli a készülékein végzett tevékenységeket: a böngészési előzményeket, az alkalmazásokban végzett tevékenységeket, a telefon képeit, a helyadatokat, a kiadási előzményeket, hordható érzékelőket, szöveges üzeneteket, fényképezőgépeket otthonában, a kamerát a jövőbeli AR szemüvegén . Ezután ajánlásokat nyújt: a következő meglátogatandó weboldalra, elolvasandó cikkre, dal hallgatni vagy megvásárolni kívánt termékre.

Ez az ajánlórendszer rendkívül hatékony. A Google, a Facebook vagy mások meglévő adatsziloinál sokkal jobban lehet, mert az maximálisan hosszanti képet mutat önről, és olyan adatokból tanulhat, amelyek egyébként túl bizalmasak lennének a megosztás megfontolására. A korábban alkalmazott kriptovalutakereskedelmi rendszer példájához hasonlóan úgy működne, hogy lehetővé tenné a különböző területekre összpontosító modellek piacának (pl .: webhely-ajánlások, zene) versenyt a titkosított adatokhoz való hozzáférésért, és ajánlásokat ajánlhat neked, és talán még fizet is. hogy hozzájáruljon az Ön adataihoz vagy a figyelméhez a generált ajánlásokhoz.

A Google szövetségi tanulása és az Apple differenciált adatvédelme egy lépés ebben a magángép-tanulási irányban, ám továbbra is bizalmat igényelnek, ne engedjék meg a felhasználóknak, hogy közvetlenül megvizsgálják biztonságát, és az adatokat megőrizzék.

A jelenlegi megközelítések

Nagyon korai. Kevés csoport dolgozik valami munkával, és a legtöbb megpróbálja egy darabot harapni egyszerre.

Az Algorithmia Research által készített egyszerű konstrukció egy olyan halasztást eredményez egy olyan modellnél, amely pontosan meghalad egy bizonyos backtesting küszöböt:

Az Algorithmia Research által készített egyszerű konstrukció haszonállatot teremt a gépi tanulási modellre

A Numerai jelenleg három lépéssel halad tovább: titkosított adatokat használ (bár nem teljesen homomorf módon), a tömegből származó modelleket egyesíti egy metamodellnek, és a jövőbeli teljesítmény alapján jutalmazza a modelleket (ebben az esetben egy hetes tőzsdei kereskedelmet), nem pedig az utólagos ellenőrzésen keresztül. egy natív Ethereum token, az úgynevezett Numeraire. Az adattudósoknak a Numeraire-t mint a játék bőrét kell bevonniuk, és arra ösztönözniük kell a teljesítményt, hogy mi fog történni (jövőbeli teljesítmény), nem pedig ami történt (utólagosan tesztelt teljesítmény). Jelenleg azonban központilag elosztja az adatokat, korlátozva azt, ami a legfontosabb összetevőnek tűnik.

Még senki sem hozott létre sikeres blokklánc-alapú adatpiacot. Az óceán egy korai kísérlet a körvonalazásra.

Mások még a biztonságos számítási hálózatok kiépítésével kezdik. Az Openmined egy többpárti számítási hálózatot hoz létre az Unity tetején működő gépi tanulási modellek kiképzésére, amely bármilyen eszközön futhat, beleértve a játékkonzolokat is (hasonlóan a Folding at Home-hez), majd kibővíti az MPC biztonságát. Az Enigma hasonló taktikával rendelkezik.

Egy lenyűgöző végállapot a kölcsönösen birtokolt metamodellek, amelyek az adatszolgáltatók és a modellek alkotói számára arányos tulajdonjogot adnak azzal, hogy mennyire okosabbak lettek. A modellek tokenizálódnának, osztalékot fizetnének az idő múlásával, és potenciálisan azok is irányíthatnák, akik képzték őket. Egyfajta kölcsönösen birtokolt kaptár elme. Az eredeti Openmined videó a legközelebbi konstrukció ehhez, amit eddig láttam.

Milyen megközelítések működnek először?

Nem állítom, hogy tudom, mi a legmegfelelőbb az építés, de van néhány ötletem.

Az egyik tézis, amelyet a blokklánc-ötletek értékelésére használok: fizikailag natív és digitálisan natív és blockchain natív spektrumán, minél több blockchain natív, annál jobb. Minél kevesebb a natív blokklánc, annál megbízhatóbb harmadik feleket vezetnek be, növelik a bonyolultságot és csökkentik a könnyű használatot, mint építőelem más rendszereknél.

Úgy gondolom, hogy ez azt jelenti, hogy egy rendszer nagyobb valószínűséggel működik, ha a létrehozott érték számszerűsíthető - ideális esetben közvetlenül pénz formájában, és még jobb, ha a tokenek. Ez lehetővé teszi a tiszta, zárt hurkú rendszert. Hasonlítsa össze a kriptovaluta kereskedési rendszer korábbi példáját azzal, amely röntgen sugarakban azonosítja a daganatokat. Az utóbbiban meg kell győznie egy biztosítótársaságot arról, hogy a röntgen modell értékes, meg kell tárgyalnia, mennyire értékes, majd megbíznia kell egy fizikailag jelenlévő emberek egy kis csoportjával a modell sikerének / kudarcának ellenőrzésében.

Ez nem egyértelműbben azt jelenti, hogy a digitálisan natív társadalom felhasználásának pozitív összege nem fog megjelenni. A korábban említetthez hasonló ajánlási rendszerek rendkívül hasznosak lehetnek. Ha hozzátartoznak a kurátori piacokhoz, akkor ez egy másik eset, amikor a modell programozhatóan lépéseket tud végrehajtani a láncon, és a rendszer jutalma zsetonok (ebben az esetben a kurációs piacból származik), újból létrehozva egy tiszta zárt hurkot. Most homályosnak tűnik, de azt várom, hogy a blockchain-natív feladatok idővel bővüljenek.

Következmények

Először is, a decentralizált gépi tanulási piacok felbonthatják a jelenlegi technológiai óriások adatmonopóliumait. Szabványosítják és árucikké teszik az értékteremtés fő forrását az interneten az elmúlt 20 évben: a tulajdonosi adathálózatokat és az őket körülvevő erős hálózati hatásokat. Ennek eredményeként az értékteremtés mozog felfelé az adathalmazból az algoritmusokba.

Szabványosítási és árucikkezési ciklusok a technológiában, ahol az adatmonopóliumok hálózati korszakának vége felé haladunk. Diagram a helyőrzőtől.

Másképpen mondva, közvetlen üzleti modellt hoznak létre az AI számára. Etetés és edzés is.

Másodszor, a világ legerősebb intelligenciarendszereit hozzák létre, közvetlen gazdasági ösztönzőkkel vonzva hozzájuk a legjobb adatokat és modelleket. Erősségük növekszik a többoldalú hálózati hatások révén. Amint a Web 2.0 korszak adathálózati monopóliumai árucikkké válnak, jó jelölteknek tűnnek a következő újra-aggregálási ponthoz. Valószínűleg néhány évvel távol vagyunk ettől, de irányban helyesnek tűnik.

Harmadszor, amint azt az ajánló rendszer példája mutatja, a keresés fordított lesz. Ahelyett, hogy termékeket keressenek, a termékek keressenek és versenyeznek az emberek miatt (hitelt adnak Bradnak a keretekért). Lehet, hogy mindenkinek van személyes kurátori piaca, ahol az ajánló rendszerek versenyeznek azért, hogy a legrelevánsabb tartalmat táplálják be hírcsatornájukba, és a relevanciát az egyén határozza meg.

Negyedszer, lehetővé teszik számunkra, hogy adataink megadása nélkül ugyanazokat az előnyöket élvezhessük, mint a nagy teljesítményű gépi tanuláson alapuló szolgáltatások, amelyekhez hozzászoktuk a cégeket, mint a Google és a Facebook.

Ötödször, a gépi tanulás gyorsabban haladhat, mivel bármely mérnök hozzáférhet egy nyílt adatpiachoz, nem csupán a mérnökök egy kis csoportja a nagy Web 2.0 cégeknél.

kihívások

Mindenekelőtt a biztonságos számítási módszerek jelenleg nagyon lassúak, és a gépi tanulás már számítási szempontból drága. Ami a biztonságos számítási módszerek iránti érdeklődést váltotta fel, a teljesítmény növekszik. Új megközelítéseket láttam a HE, MPC és ZKP teljesítményének jelentős javulásával az elmúlt 6 hónapban.

Nehéz kiszámítani az adott adatkészlet vagy modell értékét a metamodell számára.

A közforrásból származó adatok tisztítása és formázása kihívást jelent. Valószínűleg az eszközök valamilyen kombinációját, a szabványosítást és a kisvállalkozásokat jelenik meg ennek megoldására.

Végül, ironikus módon, az ilyen típusú rendszer általános konstrukciójának létrehozására szolgáló üzleti modell kevésbé egyértelmű, mint egy egyedi példány létrehozása. Úgy tűnik, hogy ez igaz sok új kriptoprimitívumra, ideértve a kurációs piacokat is.

Következtetés

A magángép-tanulás és a blokklánc-ösztönzők kombinációja a legerősebb gépi intelligenciát hozhatja létre sokféle alkalmazásban. Jelentős technikai kihívások vannak, amelyek idővel megoldhatók. Hosszú távú potenciáljuk óriási, és üdvözlendő eltolódás a nagy internetes cégek jelenlegi adatszerződésétől. Kicsit félelmesek is - bevetik magukat a létezésükbe, önerősítenek, magánadatokat fogyasztanak, és szinte lehetetlenné válnak a bezárásuk, és azon tűnődöm, vajon ezek létrehozása hatalmasabb Moloch-ot hív össze, mint valaha. Mindenesetre egy újabb példa arra, hogy a kriptovaluták lassan lelassulnak, majd hirtelen minden iparágba bejutnak.

Andrew Trask, Richard Craib, Trent McConaghy, Brad Burnham, Joel Monegro, Simon de la Rouviere, Gavin Uhma, Morten Dahl, Jonathan Libov, Matt Huang, Laura Behrens Wu, Naval Ravikant és Daniel Gross köszönetnek az ehhez hozzájáruló beszélgetéseknek post.