109: (animated-1)
109 ([personal profile] 109) wrote2016-10-02 01:14 am

Sam Harris 2016 Ted Talk on AI

Сэм Харрис узнал о проблеме superintelligence не так давно. Судя по всему, не раньше, чем два года назад. И даже после того, как узнал, доходило довольно медленно. Вот, например, можно послушать его mumbling датированный апрелем 2015: https://youtu.be/JybXEp7k7XU

Однако, недавно до него дошло окончательно, и уже никогда не отпустит. Ну и как чоткий пацан, он выбросил все лирично-академические отступления Бострома, а заодно и половину аргументов, оставив только самые бронебойные, и запендюрил пятнадцатиминутный Ted Talk по теме, на которую у Бострома обычно уходит часа полтора, а у Юдковского - неделя по три часа каждый день.

Возможно, краткость не всегда сестра таланта, но в данном случае таки да. Enjoy:

[identity profile] ati.livejournal.com 2016-10-02 09:39 am (UTC)(link)
Я всё равно не понимаю.
Ход его мысли такой: мы будем строить компьютеры всё лучше и лучше и в какой-то момент построим компьютеры умнее, чем мы сами.
Но почему? Из чего это следует?

Это собственно основа рассуждений, он повторяет это утверждение несколько раз, но не доказывает (и даже не особо объясняет) его. Объяснение типа "наши мозги - это всего лишь атомы в определённых комбинациях, значит комбинируя атомы можно построить мозги не хуже" мне представляется совершенно недостаточным. Софт - это тоже нолики, единички. Значит комбинируя нолики и единички можно на практике какой-нибудь драйвер собрать для линукса, или хотя бы grep побыстрее?

Похожая ошибка делается в рассуждениях о парадоксе Ферми. "Во вселенной так много планет, значит где-то на них _обязательно_ должна быть жизнь". Нет, не должна. Может быть, может нет. Много переменных.

Бострома читал, просьба к нему не усылать )

[identity profile] gineer.livejournal.com 2016-10-02 09:46 am (UTC)(link)
Хоть Юдковски, хоть Бостром, хоть вот этот... все равно лажа. %)

Без внятной теории того что такое вообще интеллект,
это все средневековые сказочи о големах и гомункулах. %)))
Тоже там было много спецов, что могли много и авторитетно
рассказывать развесившим уши лопухам. %)))

[identity profile] progzi2.livejournal.com 2016-10-02 02:16 pm (UTC)(link)
согласен с тем что лажа.
но построить рабочую систему можно и без внятной теории и четких определений.
прогресс в биологии ок несмотря на расплывчатость определения предмета.

[identity profile] juan-gandhi.livejournal.com 2016-10-02 04:11 pm (UTC)(link)
Нас пугают. А мне что-то не страшно.

Прежде всего, до меня начинает доходить, что "средние" люди ничего не понимают про интеллект. Они судят по себе.
Edited 2016-10-02 16:12 (UTC)

[identity profile] akimka.livejournal.com 2016-10-03 04:03 am (UTC)(link)
Надо сидеть учить дальше конвексную оптимизацию, а тут ты со своими роликами ;(
Человечество само себя не уничтожит! ;((((

[identity profile] akimka.livejournal.com 2016-10-03 04:04 am (UTC)(link)
Это следует из простого факта, что мозг человека это конечная машина тьюринга.

[identity profile] gineer.livejournal.com 2016-10-03 04:47 am (UTC)(link)
Можно подумать что не-средние люди, судят не по себе? %)

И что-то понимают про интеллект...
тогда тут же вопрос -- почему ИИ до сих пор не пострили?
Не надо отвечать.
Я ответ и так знаю -- потому что "нас умных еще слишком мало, и еще немного подождать надо" -- в общем, отмазка та же что и с ФП.
Или вот левенчук-стайл -- "ИИ это не серьозно, это слово себя скомпрометировало, и серьозные люди теперь таким не занимаются, а занимаются Х, У и Я... базвордами" %)))

[identity profile] 109.livejournal.com 2016-10-03 05:18 am (UTC)(link)
ну если ты и Бострома прочитал (superintelligence или что-то другое?), и всё равно не понял, то я тут бессилен :)

[identity profile] ati.livejournal.com 2016-10-03 05:18 am (UTC)(link)
(плачет)

[identity profile] 109.livejournal.com 2016-10-03 05:20 am (UTC)(link)
я боюсь делать догадки о том, что ты хотел сказать. но вообще talk именно об этом - не страшно, а должно быть, рационально рассуждая.
Edited 2016-10-03 05:24 (UTC)

[identity profile] ati.livejournal.com 2016-10-03 05:20 am (UTC)(link)
Я так понимаю, это тот же аргумент, что и про "атомы". Голова большая, но конечная, типа. Ок.jpg

[identity profile] 109.livejournal.com 2016-10-03 05:21 am (UTC)(link)
само - в смысле, без помощи ии?

[identity profile] 109.livejournal.com 2016-10-03 05:29 am (UTC)(link)
10:25

[identity profile] 109.livejournal.com 2016-10-03 05:31 am (UTC)(link)
я рад, что люди хотя бы перестали приводить дурацкий аргумент "а мы их из розетки выключим, если что".

[identity profile] ati.livejournal.com 2016-10-03 05:34 am (UTC)(link)
Со всей аргументацией про "что будет после" я согласен, меня именно момент перехода интересует.

[identity profile] 109.livejournal.com 2016-10-03 05:40 am (UTC)(link)
какой именно аспект интересует?

[identity profile] ati.livejournal.com 2016-10-03 05:40 am (UTC)(link)
"Information processing" -- слишком широкий термин. Это как сказать "если разумность - свойство сложной организации материи, то организуя материю всё более сложным образом, мы обязательно получим разум". Надо не просто "сложным" образом её организовывать, а каким-то определённым, пока не открытым способом. Не просто "обрабатывать информацию", а как-то специальным образом её обрабатывать. Каким - пока не известно.

[identity profile] 109.livejournal.com 2016-10-03 05:49 am (UTC)(link)
ну девочка, ну ё...

вот только что же убеждал себя не делать за первоклассников домашнюю работу.

цитата at 10:25, дословно: no one seems to notice that referencing the time horizon is a total non-sequitur.

> специальным образом её обрабатывать. Каким - пока не известно

это кому не известно? ты последние 10 лет в коме был, что ли?

[identity profile] gineer.livejournal.com 2016-10-03 05:52 am (UTC)(link)
Ну вот, сознание одного человека -- недостаточно для того чтобы по-настоящему испугатся подобного -- вон даже перспектива рака в результате курения никого особо не пугает.
А сознание общества, Человечества, и вообще, критически неразвито.
Да и вообще... "что естественно, то не страшно". %)))

[identity profile] ati.livejournal.com 2016-10-03 05:53 am (UTC)(link)
Ты погоди обзываться, это всегда успеешь )

Я говорю не о time horizon. А о том, что нет смысла говорить о "когда", если неизвестно "что". "Когда случится быврв?". За последние 10 лет (на самом деле больше) люди придумали структуру и научились настраивать нейронные сетки, эффективно решающие некоторые задачи. Это замечательно, но как это отвечает на вопрос "что такое разумность?".

[identity profile] 109.livejournal.com 2016-10-03 06:03 am (UTC)(link)
> что такое разумность?

так а что ты от меня хочешь? почему ты сюда пишешь о своей беспомощности? я обещал не делать домашних заданий первоклассникам, и я не буду.

ты вот это хочешь : http://lmgtfy.com/?q=intelligence? или статью в википедии? или определение Бострома? Юдковского? lesswrong? или посоветовать видео пересмотреть, оно там тоже есть?

[identity profile] ati.livejournal.com 2016-10-03 06:07 am (UTC)(link)
Лучше места писать про беспомощность, чем в комменты к видео про AI не найти во всём интернете.

Определений много, алгоритмов нет. И понимания, откуда оно берётся в мозгах нет.
Я, в общем, понял, что и ты этого тоже не знаешь. Больше вопросов у меня пока нет, спасибо.

[identity profile] gineer.livejournal.com 2016-10-03 06:08 am (UTC)(link)
Почему не известно? Известно -- тем же способом что и человек. ;)

[identity profile] 109.livejournal.com 2016-10-03 06:27 am (UTC)(link)
ты не спрашивал про алгоритмы. ты спрашивал "что такое разумность?". ответов на этот вопрос ты мог найти сам, много. потом подумать, почему они отличаются. подумать, какой имеет больше смысла в интересующем тебя контексте.

вместо этого, ты по уровню когерентности стремительно приближаешься к gineer, заявляешь, что я должен был, но не рассказал тебе про какие-то алгоритмы, и finally торжественно заявляешь, что и этого я тоже не знаю.

вот как можно кичиться настолько полным невежеством? ты ведь даже вопрос осмысленно сформулировать не можешь. ну начни с совсем basics каких-нибудь, вот прочитай: https://en.wikipedia.org/wiki/Artificial_intelligence, по ссылкам походи.

как можно настолько ничего не знать, если тема интересует? и нафига пытаться рассуждать на тему, если не интересует?

[identity profile] ati.livejournal.com 2016-10-03 06:34 am (UTC)(link)
Так я и писал всё время про алгоритмы,
> Не просто "обрабатывать информацию", а как-то специальным образом её обрабатывать. Каким - пока не известно.


Ты просто сразу срываешься на крик, рвёшь тельняшку на груди и шлёшь в википедию. В итоге я так и не увидел за весь наш разговор хотя бы отблеска нового понимания, того, что я не читал раньше, но ты, как давно интересующийся этой темой, знаешь.

Page 1 of 4