109: (animated-1)
Сэм Харрис узнал о проблеме superintelligence не так давно. Судя по всему, не раньше, чем два года назад. И даже после того, как узнал, доходило довольно медленно. Вот, например, можно послушать его mumbling датированный апрелем 2015: https://youtu.be/JybXEp7k7XU

Однако, недавно до него дошло окончательно, и уже никогда не отпустит. Ну и как чоткий пацан, он выбросил все лирично-академические отступления Бострома, а заодно и половину аргументов, оставив только самые бронебойные, и запендюрил пятнадцатиминутный Ted Talk по теме, на которую у Бострома обычно уходит часа полтора, а у Юдковского - неделя по три часа каждый день.

Возможно, краткость не всегда сестра таланта, но в данном случае таки да. Enjoy:

Max Harms

May. 25th, 2016 11:33 am
109: (animated-1)
вот, кстати, неплохое выступление. всё, что он говорит, изоморфно идеям Бострома, но чувак говорит своими словами и приводит оригинальные примеры, которые сам придумал.

первые семь минут, где он рекламирует свою книгу, можно скипнуть.

109: (animated-1)
jaerraeth пишет:

===

Наш племянник Федя долго мечтал о самокате, выпрашивал у всех. Наконец на день рождения, 4 года, получил. Вокруг прыгает Ваня, младший брат, и просит:
- Дай! Дай!
Федор выставляет вперед руку, отстраняя Ваньку:
- Тебе нельзя! Ты не мечтал!!!

===

так же и мы поступим, когда придём к власти сделаем mind upload.
109: (animated-1)
короткий фантастический рассказ.

...he sometimes couldn't help asking: "Are you teleopped right now?", but of course the answer, he knew, was always "yes" regardless of the truth. All the training data had contained the answer "yes" to that question, since it was originally recorded by shapers who were indeed teleopping an agent at the time, and then regurgitated by agents later in similar contexts. Such was the curious nature of the coexistence between people and agents. The Turing test was both passed and not passed, and ultimately it did not matter.

http://karpathy.github.io/2015/11/14/ai
109: (animated-1)
смешное видео. Ника Бострома всё время анноит тупость интервьюера, но он старается не подавать виду, хотя временами кажется, что он сейчас сблеванёт.

https://www.youtube.com/watch?v=80Dz4td_zJM
109: (animated-1)


в спорах про ai теперь можно вместо слов использовать timestampы этого видео. например, если кто-то скажет "а мы выдернем из розетки", ответьте просто "11:20".
109: (animated-1)
Oтличный фильм, всячески рекомендую. Посвящён исключительно одному аспекту проблемы контроля искусственного интеллекта, а именно - capability control via boxing. Рассмотрен самый правдоподобный escape vector (given the constraints). Реалистичный конец без обычных розовых соплей. Just awesome.

109: (animated-1)
меня поражают люди, утверждающие, что в области AI ничего не происходит. это как в 1962 говорить, что в области space exploration ничего не происходит. надо быть или в коме, или троллем.

...to our surprise, the average performance of human beings is a little lower than that of our proposed method

я говорю, этот поезд полетит мимо со свистом, и на нашей станции даже не остановится.

AI divide

May. 29th, 2015 01:20 pm
109: (animated-1)
помните, десяток лет назад был популярен термин "digital divide"? суть термина в "двугорбом" распределении по отношению к цифровым технологиям - люди либо по ту сторону этого divide, либо по эту.

сейчас я наблюдаю похожую картину по поводу AI. есть люди, которые врубаются и люди, которые не врубаются, и мало кто посередине.

про первый линк я уже писал, рассмотрим теперь второй. автор - писатель-фантаст (!), цитирующий "actual AI researchers". в первой же цитате профессор компьютерных наук признаётся в том, как он понимает singularity: It assumes a smart computer will create its own goals, and have its own will, and will use its faster processing abilities and deep databases to beat humans at their own game.

Deep databases, Карл!

эксперт не прост, он явно слышал что-то и про deep learning, и про databases. ну перепуталось в голове, бывает. не говоря уже о том, что Бостром, например, специально демонстрирует, как при движении к final goal (унаследованной от seed AI) возникают instrumental goals, и как легко эти instrumental goals могут оказаться несовместимыми с существованием человечества. и о том, что как раз нет, not "their own game". игра будет совершенно другой, правила которой human level intelligence вряд ли сможет даже понять.

следующий эксперт просто заявляет, что predictions... simply not realistic. безо всякой аргументации, зачем? он же эксперт, должны верить на слово.

следующий эксперт отрицает возможность super-intelligent autonomous benevolent A.I. to “reprogram” itself and remove its built-in safeguards against getting rid of humans. это продвинутый эксперт, он что-то слышал про control problem - но, к сожалению, немного; он не знаком со сценариями, которые делают невозможное очевидным.

ну и, наконец, самостоятельное творчество автора: Would you like a self-driving car that has its own opinions? That might someday decide it doesn’t feel like driving you where you want to go? That might ask for a raise?... и ещё пяток таких же глупостей, показывающих, насколько автор не понимает саму проблему, уж не говоря об ответах.

собственно, комменты к этой статье гораздо интереснее, чем сама статья. примерно половина комментаторов, по моим оценкам, въезжают в тему, и грамотно отвечают.

а статья специалиста по глубоким базам удостоилась аж слэшдота - и опять, примерно половина комментаторов по ту сторону divide, а половина - по эту.

я к чему это? удивительно, насколько широк divide. те, кто не в теме, распознаются мгновенно, буквально по тому, как и какие термины они употребляют.

Update: Only an expert can deal with the problem (Laurie Anderson)

109: (animated-1)
среди прочих, чувак высказывает интересную мысль о том, что сценарий терминатора весьма misleading: it's not so much about machine intelligence as about machine strength [against human intelligence]. реальный сценарий будет в каком-то смысле обратный: машины, которые гораздо умнее нас, will take over, несмотря на vulnerabilities: boxing, tripwires, и проч.



вообще, Boström, конечно, фундаментальное произведение написал. объял, так сказать, необъятное. фактически создал framework для обсуждения любых singularity-related тем на следующее десятилетие. читать хоть и трудно, но обязательно.

про AGI

Nov. 29th, 2014 12:55 am
109: (animated-1)
если кому интересно, Nick Bostrom (да, тот самый Bostrom, который simulation argument) выпустил новую книжку два месяца назад.

и да, уже не до шуток теперь:

As the fate of the gorillas now depends more on us humans than on the gorillas themselves, so the fate of our species then would come to depend on the actions of the machine superintelligence.

This is quite possibly the most important and most daunting challenge humanity has ever faced. And – whether we succeed or fail – it is probably the last challenge we will ever face.

http://www.amazon.com/Superintelligence-Dangers-Strategies-Nick-Bostrom/dp/0199678111
109: (Default)
Orgasmium is a homogeneous substance with limited consciousness, which is in a constant state of...
109: (Default)


фигассе. это вам не шапочка из фольги. darth vaderский шлем практически. особенно, конечно, впечатляют направления:

- navigational commands/assistance
- behavioral reinforcement

и гуглование http://google.com/search?q=darpa+ultrasonic+brain даёт вполне осмысленную выдачу.

singularity is closer than it appears. хотя это скорее не виндж, а я даже затрудняюсь сейчас вспомнить, у кого там был такой ненавязчивый mind control.
109: (Default)
Singularity is closer than it appears
(надпись на зеркале заднего вида
боевого человекоподобного робота)


сначала цитата из очередного визионерского проекта DARPA:

In the vision for foundry-style manufacturing, a verified design, suitably represented in a metalanguage and conforming to the facility’s manufacturability constraints, will be passed to the foundry. The design must be translated into usable instructions to enable execution of the manufacturing processes. This necessitates that all elements of the foundry are electronically reachable. This will entail a variety of instruction types such as, but not limited to:
• Machine tool path instructions such as for a CNC machine
• Assembly instructions for a pick-and-place robot
• Assembly instructions for human operators joining major subassemblies
• Part and assembly ordering details for off-the-shelf purchased parts
• Logistics requirements to ensure proper part shipment, storage, and use
• Test instructions for quality assurance purposes


идея, короче говоря, состоит в следующем:
1. довести до ума язык META/META-II, позволяющий стандартизованно описать процесс производства чего угодно
2. задизайнить iFAB - фабрику, которая берёт описание продукта на META/META-II и выдаёт собственно продукт
3. iFAB должна уметь "extend own capabilities" - достраивать себя по нужде
4. iFAB может быть пространственно распределённой и состоять из небольших дешёвых блоков
5. главная метрика - не скорость производства продукта, а скорость переконфигурирования. то есть, цель - реально generic foundry, которая может производить что угодно сегодня и что угодно другое завтра
6. заопенсорсить собственно дизайн продуктов - то есть, при этом подходе, написание программ на языке META/META-II, исполняемых iFAB-ом.

почитайте по ссылке, не поленитесь. реально интересный документ, я и половины не покрыл.
109: (Default)
obviously, they not only jumpstarted new life form from synthetic DNA, they cynically encoded some poetry in that DNA. no wonder geth are so evil in mass effect.

Profile

109: (Default)
109

December 2016

S M T W T F S
    1 23
45678910
11121314151617
18192021222324
25262728293031

Syndicate

RSS Atom

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags