Sam Harris 2016 Ted Talk on AI
Oct. 2nd, 2016 01:14 am![[personal profile]](https://www.dreamwidth.org/img/silk/identity/user.png)
Сэм Харрис узнал о проблеме superintelligence не так давно. Судя по всему, не раньше, чем два года назад. И даже после того, как узнал, доходило довольно медленно. Вот, например, можно послушать его mumbling датированный апрелем 2015: https://youtu.be/JybXEp7k7XU
Однако, недавно до него дошло окончательно, и уже никогда не отпустит. Ну и как чоткий пацан, он выбросил все лирично-академические отступления Бострома, а заодно и половину аргументов, оставив только самые бронебойные, и запендюрил пятнадцатиминутный Ted Talk по теме, на которую у Бострома обычно уходит часа полтора, а у Юдковского - неделя по три часа каждый день.
Возможно, краткость не всегда сестра таланта, но в данном случае таки да. Enjoy:
Однако, недавно до него дошло окончательно, и уже никогда не отпустит. Ну и как чоткий пацан, он выбросил все лирично-академические отступления Бострома, а заодно и половину аргументов, оставив только самые бронебойные, и запендюрил пятнадцатиминутный Ted Talk по теме, на которую у Бострома обычно уходит часа полтора, а у Юдковского - неделя по три часа каждый день.
Возможно, краткость не всегда сестра таланта, но в данном случае таки да. Enjoy:
(no subject)
Date: 2016-10-12 08:02 am (UTC)Только... кто его читает (не говоря уже о понимании).
Что в ходе своей эволюции, развития технологий,
Человечество неизбежно подойдет к такому этапу,
когда "надо будет отказатся от всего человеческого".
Ну вот например популярная сейчас тема полета на Марс --
на самом деле, человеку (такому как он есть) в космосе делать нечего.
Непосредственно человеческое исследование космоса,
а тем более расселение -- полный бред -- везде нужно таскать с собой "раковину" полноценного заменителя биосферы...
Ну... это я отвлекся. %)
Вот в этом вот "отказатся от человеческого" и состоит главная жуть,
неплредставимая в своей сути, похлеще чем всякие зомби-апокалиписы и сделки с дьяволом.
А всякие сказочки про "не выпустим джина из машины" -- они сказочки и есть.
Потому что не основаны на понимании -- а как же он там окажется, тот джин в той машине. %)
Предполагается что "самоорганизуется" как-нибудь сам, надо посто машину помощнее.
Хотя... ниоткуда оно не следует.
Наоброт, рил-ворлдовые Маугли показывают -- что человеческий интеллект -- это результат взросления и жизни в человеческой культуре.
Потому и ИИ, на какой бы он ни был технической основе,
должен необходимо произрастать на основании человеческой же культуры (потому что других варианов банально и нет).
И тут уже вопрос к этой самой культуре(ам) -- найдется ли среди них та, которая сможе породить хоть какой-нибудь ИИ... не говоря уже о суперИИ. %)))