109: (animated-1)
109 ([personal profile] 109) wrote2016-10-02 01:14 am

Sam Harris 2016 Ted Talk on AI

Сэм Харрис узнал о проблеме superintelligence не так давно. Судя по всему, не раньше, чем два года назад. И даже после того, как узнал, доходило довольно медленно. Вот, например, можно послушать его mumbling датированный апрелем 2015: https://youtu.be/JybXEp7k7XU

Однако, недавно до него дошло окончательно, и уже никогда не отпустит. Ну и как чоткий пацан, он выбросил все лирично-академические отступления Бострома, а заодно и половину аргументов, оставив только самые бронебойные, и запендюрил пятнадцатиминутный Ted Talk по теме, на которую у Бострома обычно уходит часа полтора, а у Юдковского - неделя по три часа каждый день.

Возможно, краткость не всегда сестра таланта, но в данном случае таки да. Enjoy:

[identity profile] akimka.livejournal.com 2016-10-12 12:51 am (UTC)(link)
пионер должен быть вежливым! а то мы всех собеседников потеряем ;)

уровень дискуссии пугает. и это более менее технически подкованные люди, то есть general population ваще не понимает что происходит. Меня это пугает даже с точки зрения социальных явлений - ты читал про компанию Обамы, которая была выиграна не в малой мере при помощи дата сайнс? То есть при помощи определенных моделей были успешно вычислены бэттлграунд кварталы, которые по эффекту домино могут повлиять на выборы в городе -> графстве и далее штате и туда было направлено макс. ресоурсов по выигрышу. То есть условно говоря Обама высаживается в каком-нить скрентоне не просто скрентоне а вот в конкретной районной школе, который подсказал алгоритм. И вот куда мы идем условно говоря с этим дальше? Понимание поведения людей и масс тоже растет. Речи, которые пишутся алгоритмами? Поведение кандидатов, которое выдрачивается под руководством дата сайнтистов? Условно говоря цвет галстука не на основании тупого опроса людей, который ничего не значит, а реально влияющий на выбор.

И это все УЖЕ происходит, а люди тут рассуждают не понимая того, что это влияет на их жизнь серьезнейшим обращом прямо сейчас.

[identity profile] gineer.livejournal.com 2016-10-12 07:30 am (UTC)(link)
\\И это все УЖЕ происходит, а люди тут рассуждают не понимая того, что это влияет на их жизнь серьезнейшим обращом прямо сейчас.

Гы... Лем понимал это еще в каком-то 19..мохнатом году.
Я его читал. и воспринимаю его мнение по-дефлту, так что и говорить не о чем.

Вы, начинаете как-то интуитивно по-немногу его самостоятельно понимать.

И ставите МНЕ на вид что я чего-то такого очевидного... не понимаю. %))))

Что это... как не доказательство моего тезиса (здесь явно не сформированного) -- что НЕТ никакой сформулированой теории развития ИИ, не важно сколько там и каких умищ на эту тему что-то там писало... потому и взаимопонимания достичь сложно...
вплоть до отсутствия возможности согласится об определениях.

И как в таких условиях говорить о разработке чего бы это ни было...

[identity profile] 109.livejournal.com 2016-10-20 07:03 pm (UTC)(link)
> при помощи определенных моделей были успешно вычислены бэттлграунд кварталы, которые по эффекту домино могут повлиять на выборы в городе -> графстве и далее штате и туда было направлено макс. ресоурсов по выигрышу. То есть условно говоря Обама высаживается в каком-нить скрентоне не просто скрентоне а вот в конкретной районной школе, который подсказал алгоритм.

это всё тоже интересно, но имеет мало отношения к собственно проблеме superintelligence. во всех этих примерах человек у руля, а алгоритмы специализированные.

[identity profile] gineer.livejournal.com 2016-10-21 07:29 am (UTC)(link)
\\это всё тоже интересно, но имеет мало отношения к собственно проблеме superintelligence. во всех этих примерах человек у руля, а алгоритмы специализированные.

Дык... то есть, проблему вы всетаки понимаете. ;)

Чт все нынешние потуги с ИИ,
зависают ровно на том же самом месте -- "у руля" все равно стоит человек.

А самоорагизации и/или самообучения -- не видно и не слышно.

Но то... что этой проблемы почему-то никто из "умнейших мира сего" почему-то "не видит" и явно не формлирует...
(тот же Юдковский, последнее что у него читал... до ухода в религию "рациональности"... писал на попсовую тему ДружелюбногоИИ, а не про то, как этот ИИ сделать... хоть дружелюбный, хоть какой)
вас при этом не смущает? %)

То есть... вы реально верите в сказочку "когда у нас появятся ТАКИЕ мощные компьютеры... в них тут же и СуперИИ, как-то сам-собой и появится"??? %)