Според д-р Нандо де Фрейтас, главен изследовател в DeepMind на Google, човечеството изглежда е на ръба на решаването на изкуствения общ интелект (AIG) в рамките на нашия живот.
В отговор на мнение, написано от вас наистина, ученият публикува нишка в Twitter, която започва с може би най-смелото изявление, което сме виждали от някой в DeepMind относно текущия му напредък. към IAG:
Моето мнение: Сега всичко е в мащаба! Играта свърши!
Нечие мнение. Моето мнение: Сега всичко е в мащаба! Играта свърши! Става дума за това да направим тези модели по-големи, по-безопасни, по-ефективни изчислително, по-бързи при вземане на проби, по-интелигентна памет, повече модалности, ИНОВАТИВНИ ДАННИ, вкл./офлайн, … 1/N https ://t.co/UJxSLZGc71
— Нандо де Фрейтас 🏳️🌈 (@NandoDF) 14 май 2022 г
Ето пълния текст на темата на de Freitas:
Нечие мнение. Моето мнение: Сега всичко е в мащаба! Играта свърши! Става дума за това да направим тези модели по-големи, по-безопасни, по-ефективни изчислително, по-бързи при вземане на проби, по-интелигентна памет, повече модалности, ИНОВАТИВНИ ДАННИ, вкл./офлайн, … 1/N
Решаването на тези предизвикателства за мащабиране е това, което AGI ще предостави. Необходими са изследвания, фокусирани върху тези въпроси, например S4 за по-голяма памет. Философията на символите не е такава. Символите са инструменти в света и големите мрежи нямат проблем да ги създават и манипулират 2/n
Не на последно място, [OpenAI co-founder Ilya Sutskever] @ilyasut е прав [cat emoji]
Рич Сътън също е прав, но урокът на ИИ не е горчив, а по-скоро сладък. Научих го от [Google researcher Geoffrey Hinton] @geoffreyhinton преди десет години. Джеф предсказа предсказуемото със зашеметяваща яснота.
Има много неща за разопаковане в тази тема, но “всичко е въпрос на мащаб сега” е доста трудно твърдение за погрешно тълкуване.
Как дойдохме тук?
DeepMind наскоро публикува изследователска статия и публикува публикация в блог за новата си мултимодална AI система. Наречена „Gato“, системата е в състояние да изпълнява стотици различни задачи, вариращи от контролиране на ръка на робот до писане на поезия.
Компанията я нарече “генералистична” система, но не стигна дотам, за да каже, че по някакъв начин е способна на обща интелигентност – можете да прочетете повече за това какво означава това тук.
Лесно е да се обърка нещо като Gato с AGI. Разликата обаче е, че един общ интелект може да се научи да прави нови неща без предварително обучение.
По мое мнение, аз сравних Gato с игрова конзола:
Способността на Gato да изпълнява много задачи е по-скоро като конзола за видеоигри, която може да съхранява 600 различни игри, отколкото игра, която можете да играете по 600 различни начина. Това не е общ AI, това е куп спретнато групирани предварително обучени тесни модели.
Това не е лошо, ако това е, което търсите. Но просто няма нищо в изследователския документ, придружаващ Gato, което да показва, че това дори е тласък в правилната посока за AGI, да не говорим за стъпка.
Доктор де Фрейтас не е съгласен. Не е изненадващо, но това, което намерих шокиращо, беше вторият туит в тяхната тема:
Решаването на тези предизвикателства за мащабиране е това, което AGI ще предостави. Необходими са изследвания, фокусирани върху тези въпроси, например S4 за по-голяма памет. Философията на символите не е такава. Символите са инструменти в света и големите мрежи нямат проблем да ги създават и манипулират 2/n
— Нандо де Фрейтас 🏳️🌈 (@NandoDF) 14 май 2022 г
Частта там горе, занимаваща се с „философията на символите“, можеше да бъде написана в пряк отговор на моето мнение. Но толкова сигурно, че престъпниците от Готъм знаят какво означава сигналът на прилепите, тези, които следват света на AI, знаят, че споменаването на символите и AGI заедно е сигурен начин да извикате Гари Маркъс.
Между Гари
Маркъс, световноизвестен учен, автор, основател и главен изпълнителен директор на Robust.AI, прекара последните няколко години в застъпничество за нов подход към AGI. Той вярва, че цялата област трябва да промени основната си методология за изграждане на AGI и е написал бестселър в този смисъл, наречен “Рестартиране на AI” с Ърнест Дейвис.
Той обсъжда и обсъжда идеите си с всички от Ян Лекун от Facebook до Йошуа Бенджио от Университета в Монреал.
И за първото издание на неговия бюлетин Substack, Маркъс повтори изявленията на де Фрейтас в нещо, което представлява пламенно (но почтително) изражение на опровержение.
Маркъс нарича хипер-мащабируемостта на AI моделите възприеман път към AGI “Scaling Uber Alles” и нарича тези системи опити за “алтернативно разузнаване” – за разлика от изкуствени интелигентност, която се опитва да имитира човешкия интелект.
За изследването на DeepMind той пише:
Няма нищо лошо в това да съдите Alt Intelligence.
Alt Intelligence представлява интуиция (или по-точно, семейство от интуиции) за това как да се изграждат интелигентни системи и тъй като никой все още не знае как да изгради тип система, която съответства на гъвкавостта и изобретателността на човешкия интелект, това със сигурност е честна игра за хора. да преследва няколко различни хипотези за това как да стигнем до там.
Нандо де Фрейтас е почти толкова категоричен в защитата на тази хипотеза, която ще нарека Scaling-Uber-Alles. Разбира се, това име, Scaling-Uber-Alles, не е съвсем правилно.
Де Фрейтас знае много добре (както ще обясня по-долу), че не можете просто да мащабирате модели и да се надявате на успех. Хората направиха много мащабиране напоследък и постигнаха страхотни успехи, но също така попаднаха на някои препятствия.
Маркъс продължава да описва проблема с неразбираемостта, който измъчва гигантски модели на AI индустрията.
По същество Маркъс изглежда казва, че колкото и страхотни и невероятни системи като DALL-E на OpenAI (модел, който генерира персонализирани изображения от описания) или Gato на DeepMind, те все още са невероятно крехки.
Той пише:
Новооткритата звезда на DeepMind, Гато, е способна на кросмодални подвизи, невиждани досега в AI, но когато погледнете в дребния шрифт, остава заседнал в същата земя на ненадеждност, моменти на блясък, съчетани с абсолютно неразбиране.
Разбира се, не е необичайно привържениците на дълбокото учене да твърдят, че и хората правят грешки.
Но всеки, който е откровен, ще осъзнае, че този вид грешки разкриват, че нещо не е наред в момента. Ако някое от децата ми редовно правеше подобни грешки, нямаше да прекалявам, щях да зарежа всичко друго, което правя, и веднага да го заведа на невролог.
Въпреки че със сигурност си заслужава да се посмеете, има сериозен нюанс. Когато изследовател на DeepMind декларира, че „играта е свършила“, той извиква визия за непосредствено или краткосрочно бъдеще, която няма смисъл.
ДЕЙСТВАЙТЕ? Наистина ли?
Няма повече Gato, DALL-E или GPT-3 са достатъчно здрави за неограничено обществено потребление. Всеки от тях изисква твърди филтри, за да ги предпази от преобръщане към пристрастия и, което е още по-лошо, никой от тях не е в състояние да дава стабилни резултати. И не само защото не сме намерили тайния сос за кодирането на AGI, но и защото човешките проблеми често са трудни и не винаги имат едно-единствено, обучаемо решение.
Не е ясно как мащабирането, дори в съчетание с революционни логически алгоритми, може да реши тези проблеми.
Това не означава, че гигантските модели не са полезни или достойни начинания.
Това, което правят DeepMind, OpenAI и подобни лаборатории, е много важно. Това е авангардна наука.
Но обявяване на играта за край? Да се намеква, че AGI ще се роди от система, чийто отличителен принос е начинът, по който служи на моделите? Гато е невероятен, но се чувства като разтягане.
Няма нищо в пламенното опровержение на де Фрейтас, което да промени мнението ми.
Създателите на Gato очевидно са брилянтни. Не съм песимист за AGI, защото Gato не е достатъчно зашеметяващ. Всъщност точно обратното.
Страхувам се, че AGI е далеч от десетилетия – може би векове – заради Gato, DALL-E и GPT-3. Всеки от тях демонстрира пробив в способността ни да манипулираме компютрите.
Не е нищо друго освен чудо да видиш как машина прави подвизи на отклоняване и предизвикване на а ла Копърфийлд, особено когато осъзнаеш, че споменатата машина не е по-умна от тостер (и очевидно по-тъпа от най-тъпата мишка).
За мен е очевидно, че ще ни трябва повече от просто… След…за да вземем съвременния AI еквивалент на „това ли е вашата карта?“ на обещаното ни Гандалфово магьосничество на AGI.
Както Маркъс завършва в своя бюлетин:
Ако ще изградим AGI, ще трябва да научим нещо от хората, как те разсъждават и разбират физическия свят и как представят и придобиват език и сложни понятия.
Чиста гордост е да вярваш в противното.