Sam Harris 2016 Ted Talk on AI
Oct. 2nd, 2016 01:14 am![[personal profile]](https://www.dreamwidth.org/img/silk/identity/user.png)
Сэм Харрис узнал о проблеме superintelligence не так давно. Судя по всему, не раньше, чем два года назад. И даже после того, как узнал, доходило довольно медленно. Вот, например, можно послушать его mumbling датированный апрелем 2015: https://youtu.be/JybXEp7k7XU
Однако, недавно до него дошло окончательно, и уже никогда не отпустит. Ну и как чоткий пацан, он выбросил все лирично-академические отступления Бострома, а заодно и половину аргументов, оставив только самые бронебойные, и запендюрил пятнадцатиминутный Ted Talk по теме, на которую у Бострома обычно уходит часа полтора, а у Юдковского - неделя по три часа каждый день.
Возможно, краткость не всегда сестра таланта, но в данном случае таки да. Enjoy:
Однако, недавно до него дошло окончательно, и уже никогда не отпустит. Ну и как чоткий пацан, он выбросил все лирично-академические отступления Бострома, а заодно и половину аргументов, оставив только самые бронебойные, и запендюрил пятнадцатиминутный Ted Talk по теме, на которую у Бострома обычно уходит часа полтора, а у Юдковского - неделя по три часа каждый день.
Возможно, краткость не всегда сестра таланта, но в данном случае таки да. Enjoy:
(no subject)
Date: 2016-10-11 06:32 am (UTC)Ну вот... представим себе что у нас уже есть более чем достаточные процессорные мощностя.
Что дальше?
Вот у нас есть полный конектом новрожденного -- загружаем его его в супер-комп, запускаем симуляцию... упс.
Получаем 100% копию человека ин витро, и необходимость те же 10-20 лет его потихоньку понемногу учить.
И в результате... ну дай бог чтобы экземплер нам попался гениальный,
или по ходу взросления вылезли какие-то интересные данные....
а так, полный провал. ;)
Ну, предположим дела у нас получше -- мы можем нарезать на микротоме и заправить в супер-комп мозги взрослого...
опять же, что в лоб, что по лбу -- ровно те же скорости обучения и функционирования,
а вместо альцгеймере бит-рот. ;)
Гм... видите, так просто не получается... не работает идея "нам бы только мощности побольше".
Ну ладно, подскажу как обойти этот момент -- надо просто запускать этого вирту-чела не подключеным к внешнему миру, а так же в симуляции мира внутри компьютера -- это нам даст практически любое необходимое нам ускорение обучения и т.п.
Правда мощностей для этого... понадобится ЕЩЕ на порядки больше... да и вопрос синхронизации информации с внешним миром -- тоже стоит очень больно -- нам ведь интересно задействовать этот интелехт в наших рил-ворлдовых задачах... а не просто дать ему в виртуальной песочнице покувыркатся (хотя, даже из этого можно извлечь каку-то информацию)...
То есть... вместо обещаного ВАУ, опять какая-то лажа.
Но и на это есть ответ.
Предположим что у нас мощности ЕЩЕ больше.
Тогда мы можем запустить симуляцию, в которой будет жить не один человек, а сотни, тысячи... э-м-м, миллионы,
и проживать свои жизни со 10х, 1000х... миллионным ускорением.
Тогда да, уже какой-то эффект просматривается.
Но. Вы сами можете оценить -- как долго нам еще пилить... до подобныхъ мощностей. ;) %))))
И это... как можно видеть "суперинтелехт" чисто условно... никаких принципиальных новшеств, как и гарантий оно не дает.
То есть...
я вам тут показал, что никакая примитивная идея "а вот будет у нас мульен суперпроцессоров, да на 100500 суперкомпьютеров... вот сразу у нас Сингулярность наступит и Суперинтеллект заколостся".
То есть...
все эти рассуждения, хоть Бостромов, хоть Юдковских -- это как выдумки средневековых натур-философов... о том что мыши могут Самозародится... достаточно для этого просто кучки гнилых тряпок. %))))
Re: А воз и ныне там
Date: 2016-10-11 11:07 pm (UTC)о чем ту разговор и идет - был бы рост мощностей линейным вы были бы отчасти правы.
(no subject)
Date: 2016-10-12 12:38 am (UTC)ну почитай ты Бострома, Юдковского, и lesswrong. дискурс и конценсус даже начинается (году примерно в 2007) с более глубоких и интересных мыслей, чем эта мучительно и коряво сформулированная хуета. а к 2013-2014 консистентный дискурс уже сформировался практически полностью.
тут не "отчасти правы", тут глубокое невежество, которое невозможно комментировать, it's not even wrong.
(no subject)
Date: 2016-10-12 12:51 am (UTC)уровень дискуссии пугает. и это более менее технически подкованные люди, то есть general population ваще не понимает что происходит. Меня это пугает даже с точки зрения социальных явлений - ты читал про компанию Обамы, которая была выиграна не в малой мере при помощи дата сайнс? То есть при помощи определенных моделей были успешно вычислены бэттлграунд кварталы, которые по эффекту домино могут повлиять на выборы в городе -> графстве и далее штате и туда было направлено макс. ресоурсов по выигрышу. То есть условно говоря Обама высаживается в каком-нить скрентоне не просто скрентоне а вот в конкретной районной школе, который подсказал алгоритм. И вот куда мы идем условно говоря с этим дальше? Понимание поведения людей и масс тоже растет. Речи, которые пишутся алгоритмами? Поведение кандидатов, которое выдрачивается под руководством дата сайнтистов? Условно говоря цвет галстука не на основании тупого опроса людей, который ничего не значит, а реально влияющий на выбор.
И это все УЖЕ происходит, а люди тут рассуждают не понимая того, что это влияет на их жизнь серьезнейшим обращом прямо сейчас.
(no subject)
Date: 2016-10-12 07:30 am (UTC)Гы... Лем понимал это еще в каком-то 19..мохнатом году.
Я его читал. и воспринимаю его мнение по-дефлту, так что и говорить не о чем.
Вы, начинаете как-то интуитивно по-немногу его самостоятельно понимать.
И ставите МНЕ на вид что я чего-то такого очевидного... не понимаю. %))))
Что это... как не доказательство моего тезиса (здесь явно не сформированного) -- что НЕТ никакой сформулированой теории развития ИИ, не важно сколько там и каких умищ на эту тему что-то там писало... потому и взаимопонимания достичь сложно...
вплоть до отсутствия возможности согласится об определениях.
И как в таких условиях говорить о разработке чего бы это ни было...
(no subject)
Date: 2016-10-20 07:03 pm (UTC)это всё тоже интересно, но имеет мало отношения к собственно проблеме superintelligence. во всех этих примерах человек у руля, а алгоритмы специализированные.
(no subject)
Date: 2016-10-21 07:29 am (UTC)Дык... то есть, проблему вы всетаки понимаете. ;)
Чт все нынешние потуги с ИИ,
зависают ровно на том же самом месте -- "у руля" все равно стоит человек.
А самоорагизации и/или самообучения -- не видно и не слышно.
Но то... что этой проблемы почему-то никто из "умнейших мира сего" почему-то "не видит" и явно не формлирует...
(тот же Юдковский, последнее что у него читал... до ухода в религию "рациональности"... писал на попсовую тему ДружелюбногоИИ, а не про то, как этот ИИ сделать... хоть дружелюбный, хоть какой)
вас при этом не смущает? %)
То есть... вы реально верите в сказочку "когда у нас появятся ТАКИЕ мощные компьютеры... в них тут же и СуперИИ, как-то сам-собой и появится"??? %)
(no subject)
Date: 2016-10-12 07:23 am (UTC)(no subject)
Date: 2016-10-20 07:08 pm (UTC)(no subject)
Date: 2016-10-12 07:41 am (UTC)И где его почитать... ну так что консистентно?
А так...
""Определение термина "суперинтеллект"
Под "суперинтеллектом" мы понимаем
интеллект, превосходящий лучших представителей
человеческого разума практически в любой
области, включая научное творчество, здравый
смысл и социальные навыки. Данное определение
оставляет открытым вопрос, каким образом
суперинтеллект будет осуществлён: это может быть
цифровой компьютер, совокупность
взаимосвязанных компьютеров, культивированная
мозговая ткань, или нечто другое.""
Это вот это,
вы предлагаете принимать за конструктивное определение? %)
(no subject)
Date: 2016-10-20 07:16 pm (UTC)---
ты вот это хочешь : http://lmgtfy.com/?q=intelligence? или статью в википедии? или определение Бострома? Юдковского? lesswrong? или посоветовать видео пересмотреть, оно там тоже есть?
---
ты спрашивал "что такое разумность?". ответов на этот вопрос ты мог найти сам, много. потом подумать, почему они отличаются.
---
(no subject)
Date: 2016-10-21 07:23 am (UTC)То есть... окей, вам самому тем ИИ не интересна... ну, настолько чтобы своим ГМ о ней думать.
Потому представление "мудрота где-то есть -- не может же быть что кто-то умный еще до этого не додумался" вас вполне устраивает?
Пусть даже никаких явных свидетельств тому нет... "музыка есть, просто её плохо слышно" (С)
Так что Ваш ответ: "Пилите Шура, пилите. Он золотые.", да? (С)
Ну окей... извините что побеспокоил... спящий разум. %)
RE: Re: А воз и ныне там
Date: 2016-10-12 07:22 am (UTC)Но работает он только до предела, когда популяция занимает ВСЮ подходящую для неё область...
намек ясен, или тщательней надо? ;)
RE: Re: А воз и ныне там
Date: 2016-10-12 07:40 am (UTC)процессоров удваивается каждые восемнадцать
месяцев [A]. Раньше удвоение скорости
происходило каждые два года, но около пятнадцати
лет назад ситуация изменилась. Последние данные
показывают, что период удвоения уже составляет 12
месяцев. При таком темпе вычислительная мощность
возрастёт за десять лет тысячекратно.""
из статьи 97-го года.
Ну да, где-то как-то,
если поигратся с опреелениями... о можно натянуть это "тысячекратное"... %)
Правда что делать с тем, как мы при этом подходим к технологическому пределу.
И при этом что-то где-то как-то подобное ИИ только начинаем получать (ага, моделировать 1000-элементные сетки, ну ладно 10.000... при том что ГМ их миллиарды)...
Остается да, только в "экспоненциальный рост" и верить. %)))
RE: Re: А воз и ныне там
Date: 2016-10-12 05:45 pm (UTC)Слушайте, вы же невежда, вы не разбираетесь в теме и даже не хотите учиться. Извините, я не хочу с вами общаться больше ;(
(no subject)
Date: 2016-10-12 12:27 am (UTC)