Entry tags:
Sam Harris 2016 Ted Talk on AI
Сэм Харрис узнал о проблеме superintelligence не так давно. Судя по всему, не раньше, чем два года назад. И даже после того, как узнал, доходило довольно медленно. Вот, например, можно послушать его mumbling датированный апрелем 2015: https://youtu.be/JybXEp7k7XU
Однако, недавно до него дошло окончательно, и уже никогда не отпустит. Ну и как чоткий пацан, он выбросил все лирично-академические отступления Бострома, а заодно и половину аргументов, оставив только самые бронебойные, и запендюрил пятнадцатиминутный Ted Talk по теме, на которую у Бострома обычно уходит часа полтора, а у Юдковского - неделя по три часа каждый день.
Возможно, краткость не всегда сестра таланта, но в данном случае таки да. Enjoy:
Однако, недавно до него дошло окончательно, и уже никогда не отпустит. Ну и как чоткий пацан, он выбросил все лирично-академические отступления Бострома, а заодно и половину аргументов, оставив только самые бронебойные, и запендюрил пятнадцатиминутный Ted Talk по теме, на которую у Бострома обычно уходит часа полтора, а у Юдковского - неделя по три часа каждый день.
Возможно, краткость не всегда сестра таланта, но в данном случае таки да. Enjoy:
no subject
Ход его мысли такой: мы будем строить компьютеры всё лучше и лучше и в какой-то момент построим компьютеры умнее, чем мы сами.
Но почему? Из чего это следует?
Это собственно основа рассуждений, он повторяет это утверждение несколько раз, но не доказывает (и даже не особо объясняет) его. Объяснение типа "наши мозги - это всего лишь атомы в определённых комбинациях, значит комбинируя атомы можно построить мозги не хуже" мне представляется совершенно недостаточным. Софт - это тоже нолики, единички. Значит комбинируя нолики и единички можно на практике какой-нибудь драйвер собрать для линукса, или хотя бы grep побыстрее?
Похожая ошибка делается в рассуждениях о парадоксе Ферми. "Во вселенной так много планет, значит где-то на них _обязательно_ должна быть жизнь". Нет, не должна. Может быть, может нет. Много переменных.
Бострома читал, просьба к нему не усылать )
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
Re: А воз и ныне там
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
RE: Re: А воз и ныне там
RE: Re: А воз и ныне там
RE: Re: А воз и ныне там
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
Да %)
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
no subject
Без внятной теории того что такое вообще интеллект,
это все средневековые сказочи о големах и гомункулах. %)))
Тоже там было много спецов, что могли много и авторитетно
рассказывать развесившим уши лопухам. %)))
(no subject)
no subject
Прежде всего, до меня начинает доходить, что "средние" люди ничего не понимают про интеллект. Они судят по себе.
(no subject)
(no subject)
(no subject)
Единственная здравая мысль оттуда
Re: Единственная здравая мысль оттуда
RE: Re: Единственная здравая мысль оттуда
(no subject)
(no subject)
no subject
Человечество само себя не уничтожит! ;((((
(no subject)
(no subject)
no subject
https://twitter.com/top500supercomp
(можно посчитать твиты где тег #AI не встречается ради интереса).
(no subject)
(no subject)
(no subject)
Сингулярность... мать её. %)))
Сингулярность... мать её. %)))
Сингулярность... мать её. %)))
Сингулярность... мать её. %)))
Сингулярность... мать её. %)))
Сингулярность... мать её. %)))
Сингулярность... мать её. %)))
Сингулярность... мать её. %)))
Вот. В эти времена мы и живем (статья 1997-го)
оптимизации, ИИ человеческого уровня, вероятно,
потребует от 10^14 до 10^17 ops. Кажется вполне
возможным, что усовершенствованная оптимизация
могла бы ещё сократить эти цифры, но начальный
уровень был бы вероятно не меньше чем около 10^14 ops.
Если закон Мура будет продолжать выполняться,
нижняя граница будет достигнута где-то между 2004 и
2008 годами, а верхняя - между 2015 и 2024. Прошлый успех
закона Мура даёт некоторые индуктивные
основания полагать, что он будет продолжать
выполняться ещё около десяти-пятнадцати лет; и
это предсказание подкрепляется фактом, что
существует ряд многообещающих новых технологий,
находящихся в данный момент в стадии разработки.
Они содержат огромный потенциал для увеличения
вычислительной мощности, который можно купить за
те же деньги. Не существует прямых оснований
предполагать, что закон Мура не будет
выполняться больше, чем 15 лет. Поэтому
представляется вероятным, что необходимые для ИИ
человеческого уровня аппаратные средства будут
созданы в первой четверти следующего столетия,
возможно в его первые несколько лет.
Существует несколько подходов к разработке
программного обеспечения для ИИ. Один из них -
эмулировать основные принципы биологического
мозга. Не кажется неправдоподобным
предположение, что в пределах 15 лет эти принципы
будут познаны достаточно хорошо, чтобы при
адекватных аппаратных средствах этот подход
привёл к успеху.