109: (animated-1)
109 ([personal profile] 109) wrote2016-10-02 01:14 am

Sam Harris 2016 Ted Talk on AI

Сэм Харрис узнал о проблеме superintelligence не так давно. Судя по всему, не раньше, чем два года назад. И даже после того, как узнал, доходило довольно медленно. Вот, например, можно послушать его mumbling датированный апрелем 2015: https://youtu.be/JybXEp7k7XU

Однако, недавно до него дошло окончательно, и уже никогда не отпустит. Ну и как чоткий пацан, он выбросил все лирично-академические отступления Бострома, а заодно и половину аргументов, оставив только самые бронебойные, и запендюрил пятнадцатиминутный Ted Talk по теме, на которую у Бострома обычно уходит часа полтора, а у Юдковского - неделя по три часа каждый день.

Возможно, краткость не всегда сестра таланта, но в данном случае таки да. Enjoy:

[identity profile] ati.livejournal.com 2016-10-02 09:39 am (UTC)(link)
Я всё равно не понимаю.
Ход его мысли такой: мы будем строить компьютеры всё лучше и лучше и в какой-то момент построим компьютеры умнее, чем мы сами.
Но почему? Из чего это следует?

Это собственно основа рассуждений, он повторяет это утверждение несколько раз, но не доказывает (и даже не особо объясняет) его. Объяснение типа "наши мозги - это всего лишь атомы в определённых комбинациях, значит комбинируя атомы можно построить мозги не хуже" мне представляется совершенно недостаточным. Софт - это тоже нолики, единички. Значит комбинируя нолики и единички можно на практике какой-нибудь драйвер собрать для линукса, или хотя бы grep побыстрее?

Похожая ошибка делается в рассуждениях о парадоксе Ферми. "Во вселенной так много планет, значит где-то на них _обязательно_ должна быть жизнь". Нет, не должна. Может быть, может нет. Много переменных.

Бострома читал, просьба к нему не усылать )

[identity profile] gineer.livejournal.com 2016-10-02 09:46 am (UTC)(link)
Хоть Юдковски, хоть Бостром, хоть вот этот... все равно лажа. %)

Без внятной теории того что такое вообще интеллект,
это все средневековые сказочи о големах и гомункулах. %)))
Тоже там было много спецов, что могли много и авторитетно
рассказывать развесившим уши лопухам. %)))

[identity profile] juan-gandhi.livejournal.com 2016-10-02 04:11 pm (UTC)(link)
Нас пугают. А мне что-то не страшно.

Прежде всего, до меня начинает доходить, что "средние" люди ничего не понимают про интеллект. Они судят по себе.
Edited 2016-10-02 16:12 (UTC)

[identity profile] akimka.livejournal.com 2016-10-03 04:03 am (UTC)(link)
Надо сидеть учить дальше конвексную оптимизацию, а тут ты со своими роликами ;(
Человечество само себя не уничтожит! ;((((

[identity profile] akimka.livejournal.com 2016-10-06 02:08 am (UTC)(link)
Кстати раз уж ты алармист - вот тебе страшное чтение на ночь ;)

https://twitter.com/top500supercomp

(можно посчитать твиты где тег #AI не встречается ради интереса).

Сингулярность... мать её. %)))

[identity profile] livejournal.livejournal.com 2016-10-11 06:36 am (UTC)(link)
User [livejournal.com profile] gineer referenced to your post from Сингулярность... мать её. %))) (http://gineer.livejournal.com/5174508.html) saying: [...] 5 жовтня 2016, 20:13:01 [...]

Сингулярность... мать её. %)))

[identity profile] livejournal.livejournal.com 2016-10-11 06:36 am (UTC)(link)
User [livejournal.com profile] gineer referenced to your post from Сингулярность... мать её. %))) (http://gineer.livejournal.com/5174508.html) saying: [...] 5 днів тому Обрати Згорнути [...]

Сингулярность... мать её. %)))

[identity profile] livejournal.livejournal.com 2016-10-11 06:36 am (UTC)(link)
User [livejournal.com profile] gineer referenced to your post from Сингулярность... мать её. %))) (http://gineer.livejournal.com/5174508.html) saying: [...] Розкрити [...]

Сингулярность... мать её. %)))

[identity profile] livejournal.livejournal.com 2016-10-11 06:36 am (UTC)(link)
User [livejournal.com profile] gineer referenced to your post from Сингулярность... мать её. %))) (http://gineer.livejournal.com/5174508.html) saying: [...] суперкомпьютер 2008 года (а это было совсем недавно). Но все равно слишком медленно. Відповісти [...]

Сингулярность... мать её. %)))

[identity profile] livejournal.livejournal.com 2016-10-11 06:36 am (UTC)(link)
User [livejournal.com profile] gineer referenced to your post from Сингулярность... мать её. %))) (http://gineer.livejournal.com/5174508.html) saying: [...] 11 жовтня 2016, 09:32:09 [...]

Сингулярность... мать её. %)))

[identity profile] livejournal.livejournal.com 2016-10-11 06:36 am (UTC)(link)
User [livejournal.com profile] gineer referenced to your post from Сингулярность... мать её. %))) (http://gineer.livejournal.com/5174508.html) saying: [...] кілька секунд тому Обрати Згорнути [...]

Сингулярность... мать её. %)))

[identity profile] livejournal.livejournal.com 2016-10-11 06:36 am (UTC)(link)
User [livejournal.com profile] gineer referenced to your post from Сингулярность... мать её. %))) (http://gineer.livejournal.com/5174508.html) saying: [...] Edit [...]

Сингулярность... мать её. %)))

[identity profile] livejournal.livejournal.com 2016-10-11 06:36 am (UTC)(link)
User [livejournal.com profile] gineer referenced to your post from Сингулярность... мать её. %))) (http://gineer.livejournal.com/5174508.html) saying: [...] мыши могут Самозародится... достаточно для этого просто кучки гнилых тряпок. %)))) Відповісти [...]

Вот. В эти времена мы и живем (статья 1997-го)

[identity profile] gineer.livejournal.com 2016-10-12 11:01 am (UTC)(link)
В зависимости от предполагаемой степени
оптимизации, ИИ человеческого уровня, вероятно,
потребует от 10^14 до 10^17 ops
. Кажется вполне
возможным, что усовершенствованная оптимизация
могла бы ещё сократить эти цифры, но начальный
уровень был бы вероятно не меньше чем около 10^14 ops.
Если закон Мура будет продолжать выполняться,
нижняя граница будет достигнута где-то между 2004 и
2008 годами, а верхняя - между 2015 и 2024. Прошлый успех
закона Мура даёт некоторые индуктивные
основания полагать, что он будет продолжать
выполняться ещё около десяти-пятнадцати лет; и
это предсказание подкрепляется фактом, что
существует ряд многообещающих новых технологий,
находящихся в данный момент в стадии разработки.
Они содержат огромный потенциал для увеличения
вычислительной мощности, который можно купить за
те же деньги. Не существует прямых оснований
предполагать, что закон Мура не будет
выполняться больше, чем 15 лет. Поэтому
представляется вероятным, что необходимые для ИИ
человеческого уровня аппаратные средства будут
созданы в первой четверти следующего столетия,
возможно в его первые несколько лет.




Существует несколько подходов к разработке
программного обеспечения для ИИ. Один из них -
эмулировать основные принципы биологического
мозга. Не кажется неправдоподобным
предположение, что в пределах 15 лет эти принципы
будут познаны достаточно хорошо, чтобы при
адекватных аппаратных средствах этот подход
привёл к успеху.