109: (animated-1)
[personal profile] 109
Сэм Харрис узнал о проблеме superintelligence не так давно. Судя по всему, не раньше, чем два года назад. И даже после того, как узнал, доходило довольно медленно. Вот, например, можно послушать его mumbling датированный апрелем 2015: https://youtu.be/JybXEp7k7XU

Однако, недавно до него дошло окончательно, и уже никогда не отпустит. Ну и как чоткий пацан, он выбросил все лирично-академические отступления Бострома, а заодно и половину аргументов, оставив только самые бронебойные, и запендюрил пятнадцатиминутный Ted Talk по теме, на которую у Бострома обычно уходит часа полтора, а у Юдковского - неделя по три часа каждый день.

Возможно, краткость не всегда сестра таланта, но в данном случае таки да. Enjoy:

(no subject)

Date: 2016-10-11 06:32 am (UTC)
From: [identity profile] gineer.livejournal.com
\\Эти суперкомпьютеры слишком медленные. Но мы идем верной дорогой.

Ну вот... представим себе что у нас уже есть более чем достаточные процессорные мощностя.
Что дальше?

Вот у нас есть полный конектом новрожденного -- загружаем его его в супер-комп, запускаем симуляцию... упс.
Получаем 100% копию человека ин витро, и необходимость те же 10-20 лет его потихоньку понемногу учить.
И в результате... ну дай бог чтобы экземплер нам попался гениальный,
или по ходу взросления вылезли какие-то интересные данные....

а так, полный провал. ;)

Ну, предположим дела у нас получше -- мы можем нарезать на микротоме и заправить в супер-комп мозги взрослого...

опять же, что в лоб, что по лбу -- ровно те же скорости обучения и функционирования,
а вместо альцгеймере бит-рот. ;)

Гм... видите, так просто не получается... не работает идея "нам бы только мощности побольше".

Ну ладно, подскажу как обойти этот момент -- надо просто запускать этого вирту-чела не подключеным к внешнему миру, а так же в симуляции мира внутри компьютера -- это нам даст практически любое необходимое нам ускорение обучения и т.п.
Правда мощностей для этого... понадобится ЕЩЕ на порядки больше... да и вопрос синхронизации информации с внешним миром -- тоже стоит очень больно -- нам ведь интересно задействовать этот интелехт в наших рил-ворлдовых задачах... а не просто дать ему в виртуальной песочнице покувыркатся (хотя, даже из этого можно извлечь каку-то информацию)...

То есть... вместо обещаного ВАУ, опять какая-то лажа.

Но и на это есть ответ.
Предположим что у нас мощности ЕЩЕ больше.
Тогда мы можем запустить симуляцию, в которой будет жить не один человек, а сотни, тысячи... э-м-м, миллионы,
и проживать свои жизни со 10х, 1000х... миллионным ускорением.

Тогда да, уже какой-то эффект просматривается.
Но. Вы сами можете оценить -- как долго нам еще пилить... до подобныхъ мощностей. ;) %))))

И это... как можно видеть "суперинтелехт" чисто условно... никаких принципиальных новшеств, как и гарантий оно не дает.

То есть...
я вам тут показал, что никакая примитивная идея "а вот будет у нас мульен суперпроцессоров, да на 100500 суперкомпьютеров... вот сразу у нас Сингулярность наступит и Суперинтеллект заколостся".

То есть...
все эти рассуждения, хоть Бостромов, хоть Юдковских -- это как выдумки средневековых натур-философов... о том что мыши могут Самозародится... достаточно для этого просто кучки гнилых тряпок. %))))

Re: А воз и ныне там

Date: 2016-10-11 11:07 pm (UTC)
From: [identity profile] akimka.livejournal.com
ну вы же понимаете что такое экспоненциальный рост? я выше график приводил роста мощности комьютеров, вы же математику изучали - можете понять что шкала y логарифмическая ;)

о чем ту разговор и идет - был бы рост мощностей линейным вы были бы отчасти правы.

(no subject)

Date: 2016-10-12 12:38 am (UTC)
From: [identity profile] 109.livejournal.com
да какое "отчасти правы", акимка?

ну почитай ты Бострома, Юдковского, и lesswrong. дискурс и конценсус даже начинается (году примерно в 2007) с более глубоких и интересных мыслей, чем эта мучительно и коряво сформулированная хуета. а к 2013-2014 консистентный дискурс уже сформировался практически полностью.

тут не "отчасти правы", тут глубокое невежество, которое невозможно комментировать, it's not even wrong.

(no subject)

Date: 2016-10-12 12:51 am (UTC)
From: [identity profile] akimka.livejournal.com
пионер должен быть вежливым! а то мы всех собеседников потеряем ;)

уровень дискуссии пугает. и это более менее технически подкованные люди, то есть general population ваще не понимает что происходит. Меня это пугает даже с точки зрения социальных явлений - ты читал про компанию Обамы, которая была выиграна не в малой мере при помощи дата сайнс? То есть при помощи определенных моделей были успешно вычислены бэттлграунд кварталы, которые по эффекту домино могут повлиять на выборы в городе -> графстве и далее штате и туда было направлено макс. ресоурсов по выигрышу. То есть условно говоря Обама высаживается в каком-нить скрентоне не просто скрентоне а вот в конкретной районной школе, который подсказал алгоритм. И вот куда мы идем условно говоря с этим дальше? Понимание поведения людей и масс тоже растет. Речи, которые пишутся алгоритмами? Поведение кандидатов, которое выдрачивается под руководством дата сайнтистов? Условно говоря цвет галстука не на основании тупого опроса людей, который ничего не значит, а реально влияющий на выбор.

И это все УЖЕ происходит, а люди тут рассуждают не понимая того, что это влияет на их жизнь серьезнейшим обращом прямо сейчас.

(no subject)

Date: 2016-10-12 07:30 am (UTC)
From: [identity profile] gineer.livejournal.com
\\И это все УЖЕ происходит, а люди тут рассуждают не понимая того, что это влияет на их жизнь серьезнейшим обращом прямо сейчас.

Гы... Лем понимал это еще в каком-то 19..мохнатом году.
Я его читал. и воспринимаю его мнение по-дефлту, так что и говорить не о чем.

Вы, начинаете как-то интуитивно по-немногу его самостоятельно понимать.

И ставите МНЕ на вид что я чего-то такого очевидного... не понимаю. %))))

Что это... как не доказательство моего тезиса (здесь явно не сформированного) -- что НЕТ никакой сформулированой теории развития ИИ, не важно сколько там и каких умищ на эту тему что-то там писало... потому и взаимопонимания достичь сложно...
вплоть до отсутствия возможности согласится об определениях.

И как в таких условиях говорить о разработке чего бы это ни было...

(no subject)

Date: 2016-10-20 07:03 pm (UTC)
From: [identity profile] 109.livejournal.com
> при помощи определенных моделей были успешно вычислены бэттлграунд кварталы, которые по эффекту домино могут повлиять на выборы в городе -> графстве и далее штате и туда было направлено макс. ресоурсов по выигрышу. То есть условно говоря Обама высаживается в каком-нить скрентоне не просто скрентоне а вот в конкретной районной школе, который подсказал алгоритм.

это всё тоже интересно, но имеет мало отношения к собственно проблеме superintelligence. во всех этих примерах человек у руля, а алгоритмы специализированные.

(no subject)

Date: 2016-10-21 07:29 am (UTC)
From: [identity profile] gineer.livejournal.com
\\это всё тоже интересно, но имеет мало отношения к собственно проблеме superintelligence. во всех этих примерах человек у руля, а алгоритмы специализированные.

Дык... то есть, проблему вы всетаки понимаете. ;)

Чт все нынешние потуги с ИИ,
зависают ровно на том же самом месте -- "у руля" все равно стоит человек.

А самоорагизации и/или самообучения -- не видно и не слышно.

Но то... что этой проблемы почему-то никто из "умнейших мира сего" почему-то "не видит" и явно не формлирует...
(тот же Юдковский, последнее что у него читал... до ухода в религию "рациональности"... писал на попсовую тему ДружелюбногоИИ, а не про то, как этот ИИ сделать... хоть дружелюбный, хоть какой)
вас при этом не смущает? %)

То есть... вы реально верите в сказочку "когда у нас появятся ТАКИЕ мощные компьютеры... в них тут же и СуперИИ, как-то сам-собой и появится"??? %)

(no subject)

Date: 2016-10-12 07:23 am (UTC)
From: [identity profile] gineer.livejournal.com
Вы продолжаете писать "Юдковского, и lesswrong"... это практически "Фридриха Энгельса -- не муж и жена". ;)

(no subject)

Date: 2016-10-20 07:08 pm (UTC)
From: [identity profile] 109.livejournal.com
да не, во времена расцвета lesswrong там дофига умных людей тусовалось. Юдковский просто был больше сфокусирован на проблеме superintelligence, но продвинуть дискурс настолько вперёд - это коллективный effort.

(no subject)

Date: 2016-10-12 07:41 am (UTC)
From: [identity profile] gineer.livejournal.com
\\а к 2013-2014 консистентный дискурс уже сформировался практически полностью.

И где его почитать... ну так что консистентно?


А так...

""Определение термина "суперинтеллект"

Под "суперинтеллектом" мы понимаем
интеллект, превосходящий лучших представителей
человеческого разума практически в любой
области, включая научное творчество, здравый
смысл и социальные навыки. Данное определение
оставляет открытым вопрос, каким образом
суперинтеллект будет осуществлён: это может быть
цифровой компьютер, совокупность
взаимосвязанных компьютеров, культивированная
мозговая ткань, или нечто другое.""

Это вот это,
вы предлагаете принимать за конструктивное определение? %)

(no subject)

Date: 2016-10-20 07:16 pm (UTC)
From: [identity profile] 109.livejournal.com
ну, это уже прогресс, хоть и микроскопический. возможно, через некоторое время и осмысленный вопрос задать получится. а пока могу порекомендовать внимательно перечитывать то, что я уже писал в этом треде, например:

---
ты вот это хочешь : http://lmgtfy.com/?q=intelligence? или статью в википедии? или определение Бострома? Юдковского? lesswrong? или посоветовать видео пересмотреть, оно там тоже есть?
---
ты спрашивал "что такое разумность?". ответов на этот вопрос ты мог найти сам, много. потом подумать, почему они отличаются.
---

(no subject)

Date: 2016-10-21 07:23 am (UTC)
From: [identity profile] gineer.livejournal.com
\\ну, это уже прогресс, хоть и микроскопический. возможно, через некоторое время и осмысленный вопрос задать получится. а пока могу порекомендовать внимательно перечитывать то, что я уже писал в этом треде, например:

То есть... окей, вам самому тем ИИ не интересна... ну, настолько чтобы своим ГМ о ней думать.
Потому представление "мудрота где-то есть -- не может же быть что кто-то умный еще до этого не додумался" вас вполне устраивает?
Пусть даже никаких явных свидетельств тому нет... "музыка есть, просто её плохо слышно" (С)
Так что Ваш ответ: "Пилите Шура, пилите. Он золотые.", да? (С)

Ну окей... извините что побеспокоил... спящий разум. %)

RE: Re: А воз и ныне там

Date: 2016-10-12 07:22 am (UTC)
From: [identity profile] gineer.livejournal.com
Экспоненциальный рост... это обычная штука в биологии.
Но работает он только до предела, когда популяция занимает ВСЮ подходящую для неё область...

намек ясен, или тщательней надо? ;)

RE: Re: А воз и ныне там

Date: 2016-10-12 07:40 am (UTC)
From: [identity profile] gineer.livejournal.com
""Закон Мура утверждает, что скорость
процессоров удваивается каждые восемнадцать
месяцев [A]. Раньше удвоение скорости
происходило каждые два года, но около пятнадцати
лет назад ситуация изменилась. Последние данные
показывают, что период удвоения уже составляет 12
месяцев. При таком темпе вычислительная мощность
возрастёт за десять лет тысячекратно.""

из статьи 97-го года.

Ну да, где-то как-то,
если поигратся с опреелениями... о можно натянуть это "тысячекратное"... %)

Правда что делать с тем, как мы при этом подходим к технологическому пределу.
И при этом что-то где-то как-то подобное ИИ только начинаем получать (ага, моделировать 1000-элементные сетки, ну ладно 10.000... при том что ГМ их миллиарды)...

Остается да, только в "экспоненциальный рост" и верить. %)))

RE: Re: А воз и ныне там

Date: 2016-10-12 05:45 pm (UTC)
From: [identity profile] akimka.livejournal.com
Технологические предел это серьезная проблема, лампы перегреваются, выходят из строя, очевидно что для компьютера, совершающего хотя бы какое-то приемлимое количество операций в минуту потребуется целая планета.

Слушайте, вы же невежда, вы не разбираетесь в теме и даже не хотите учиться. Извините, я не хочу с вами общаться больше ;(

(no subject)

Date: 2016-10-12 12:27 am (UTC)
From: [identity profile] 109.livejournal.com
это "срезал" практически по Шукшину.

Profile

109: (Default)
109

March 2019

S M T W T F S
     12
3456789
101112131415 16
17181920212223
24252627282930
31      

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags