109: (Default)
[personal profile] 109
http://en.wikipedia.org/wiki/Ellsberg_paradox

ну чё я могу сказать: really? I mean, really?

When surveyed, however, most people strictly prefer Gamble A to Gamble B and Gamble D to Gamble C. Therefore, some assumptions of the expected utility theory are violated.

это у нас такие utility theories, которые не могут объяснить, почему люди предпочитают А и Д? я теперь не удивляюсь, что в valuation models не было заложено возможности того, что цены на недвижимость упадут. sophisticated people indeed.

да ведь любой начинающий инвестор знает, что из двух портфелей, дающих одинаковый expected return на заданном интервале времени, дороже стоит тот, у которого volatility меньше. "Possible explanations" по ссылке просто-таки miserable.

(no subject)

Date: 2009-02-27 12:33 pm (UTC)
From: [identity profile] anatoly borodin (from livejournal.com)
да ведь любой начинающий инвестор знает, что из двух портфелей, дающих одинаковый expected return на заданном интервале времени, дороже стоит тот, у которого volatility меньше.

Суеверие, не?

(no subject)

Date: 2009-02-27 09:30 pm (UTC)
From: [identity profile] 109.livejournal.com
не.
это как бы общеизвестная истина.
вон там ниже даже говорят, что следствие той же utility theory.

(no subject)

Date: 2009-02-27 01:28 pm (UTC)
From: [identity profile] keethraxx.livejournal.com
=== да ведь любой начинающий инвестор знает, что из двух портфелей, дающих одинаковый expected return на заданном интервале времени, дороже стоит тот, у которого volatility меньше.

Собственно это и есть следствие expected utility theory и Jensen's inequality :)

Но к данному случаю это имхо неприменимо. В частности интересно как вы считали volatility :)

(no subject)

Date: 2009-02-27 01:32 pm (UTC)
From: [identity profile] keethraxx.livejournal.com
Ну и вдогонку: что именно людям не нравится -- как раз на интуитивном уровне понятно :)
просто expected utility theory их поведение не полностью описывает.

(no subject)

Date: 2009-02-27 09:28 pm (UTC)
From: [identity profile] 109.livejournal.com
портфель с меньшей волатильностью стоит больше, потому что там риска меньше. точно так же и здесь, риска в А и Д меньше, потому что известна доля соответствующих шаров.

численно посчитать это никак нельзя, поскольку не даётся никакой информации о распределении тех шаров. качественная разница, тем не менее, очевидна: там распределение известно, а там - нет.

но надо как бы определиться, либо это следствие expected utility theory, либо "assumptions of the expected utility theory are violated".

(no subject)

Date: 2009-02-27 10:30 pm (UTC)
From: [identity profile] keethraxx.livejournal.com
для risk-return tradeoff никаких таких парадоксов не нужно -- риск в ней выражается численно (напр. как стандартное отклонение прибыли) и tradeoff прямо следует из vanilla expected utility theory.

Вы однако говорите что риск для вас это нечто большее чем просто математическая неопределенность ожидаемой прибыли -- для любого конкретного prior распределения количества черных шаров такие предпочтения не рациональны.
т.е. вам по сути именно *неприятно иметь дело с неизвестным распределением* -- но это совсем не то что обычно понимается под риском.

для численной оценки таких вещей (как и их влияния на asset prices) тоже есть теории впрочем -- погуглите например ambiguity aversion; примерно то же самое про что вы и говорите. парадокс этому всему служит в качестве обоснования.

(no subject)

Date: 2009-02-27 10:59 pm (UTC)
From: [identity profile] 109.livejournal.com
вы не могли бы свой пойнт как-нибудь более чётко сформулировать? а то мой вроде бы сформулирован предельно ясно: для неизвестного распределения вероятностей uncertainty aka risk больше, чем для известного распределения вероятностей, следовательно value меньше при том же expected return. с какой частью этого утверждения вы спорите, мне не очень понятно.

(no subject)

Date: 2009-02-28 11:23 am (UTC)
From: [identity profile] keethraxx.livejournal.com
Как раз не совсем предельно ясно -- о чем и речь собственно :)
Ну вот каково ваше математическое определение "uncertainty aka risk" -- и если оно числом не измеряется, то что значит "больше"?

Сама концепция "выше риск => выше return", как вы и сами наверняка знаете, происходит из вполне конкретного определения, в котором риск измеряется численно, и которое в этом случае не обьясняет такого выбора.
Более того -- ни одно определение, основывающееся на свойствах функции распределения прибыли, его не обьясняет.

Эту задачу кстати часто записывают и проще -- в классическом варианте это два ящика: в одном 50 красных и 50 черных; в другом просто 100 шаров (красных и черных) неизвестного состава, и можно выбирать цвет на который поставить.
Большинство выбирают первый вариант -- хотя очевидно что если выбор цвета осуществлять, например, подбрасыванием монетки то и во втором случае вероятность выигрыша -- точно те же 50%, несмотря на неизвестное распределение.

(no subject)

Date: 2009-02-28 12:24 pm (UTC)
From: [identity profile] 109.livejournal.com
это совершенно разные задачи. вы что, правда не видите разницу? в вашей задаче вероятность выиграть всегда 50% и не зависит от распределения шаров. в Ellsberg paradox, наоборот, в случаях Б и С зависит от состава шаров - который держится в секрете - что, собственно, и является причиной предпочтения рациональным игроком вариантов, в которых вероятность фиксирована (А и Д).

я думаю, что не будет большой ошибкой сказать, что задача в "парадоксе" Элсберга изоморфна выбору между гарантированным получением тысячи долларов и 50% шансом получить две тысячи, либо не получить ничего. ответ на эту задачу, в свою очередь, очевиден как частный случай правила "из двух ассетов с одинаковым expected return всегда предпочтительней менее волатильный".

поскольку задача специально составлена так, что про распределение чёрных/жёлтых шаров ничего не известно, то требовать от меня каких-то вычислений как-то странно. если у вас есть какие-то вычисления, давайте на них внимательно посмотрим - не делаете ли вы каких-нибудь необоснованных предположений.

(no subject)

Date: 2009-02-28 01:34 pm (UTC)
From: [identity profile] keethraxx.livejournal.com
Пока коротко:
- самое главное: я не требую от вас расчетов -- я просто хочу чтобы вы прояснили (для себя в т.ч.) над тем что *конкретно* (а не по принципу "I know it when I see it") означают ваши слова про то что "при неизвестном распределении риск выше" -- т.е. что значит "риск", от чего он зависит, и что значит "выше" -- вне зависимости от конкретной задачи.

Вот например если в выборе #1 вытащить из ящика красный шар и выбросить -- предпочтете ли вы А или Б? А если вытащить N шаров? Очевидно что при каком-то N вы предпочтете Б.

- В моей задаче вероятность выиграть очень даже зависит от распределения шаров -- зависимость пропадает только если цвет шара на который мы ставим определять монеткой. Но я не обязан (хотя и имею право) его так определять.

- таки будет большой ошибкой, по крайней мере в рамках классической теории вероятностей.

если хотите расчеты то их можно привести -- но по сути обьяснения по вашей ссылке в википедии математически вполне точны.

PS. Пардон за вопрос -- совершенно не в плане наезда а чисто чтобы мне было проще отвечать на темы типа вашего п.2: вы знакомы с понятиями prior и posterior probability и теоремой Байеса?

(no subject)

Date: 2009-02-28 11:33 pm (UTC)
From: [identity profile] 109.livejournal.com
В моей задаче вероятность выиграть очень даже зависит от распределения шаров - зависимость пропадает только если цвет шара на который мы ставим определять монеткой. Но я не обязан (хотя и имею право) его так определять.

совершенно неверно. не пропадает зависимость, если монеткой. вообще всё наоборот. зависимости нет; она может появиться, только если способ выбора цвета коррелирован со способом приготовления смеси шаров. поскольку про способ приготовления в условии ничего не говорится, вы не можете придумать алгоритм выбора, который коррелирован со способом приготовления, исходя исключительно из условий задачи. что равносильно утверждению "не зависит". в парадоксе Элсберга всё наоборот, вероятность всегда коррелирована, за исключением одного специального случая, когда количество чёрных шаров равно количеству жёлтых.

вот что мне непонятно. вы, очевидно, настаиваете на том, что парадокс Элсберга легко просчитывается - но тем не менее никаких расчётов не приводите (назовём это "парадокс keethraxx"). хотя если бы вы это сделали, легко можно было бы увидеть, какие предположения вы при этом используете, и обсудить их. вместо того, чтобы заниматься словоблудием.

(no subject)

Date: 2009-02-28 03:07 pm (UTC)
From: [identity profile] keethraxx.livejournal.com
выражусь еще немного по другому: большая часть финансовой теории -- в том числе результаты с tradeoff between risk and return -- основываются на классической теории вероятностей.

Понятно что грош цена была бы этой теории если бы она не умела обращаться с неизвестными распределениями. Это делается посредством т.н. bayesian updating. В нем наша неопределенность относительно распределения черных и желтых шаров описывается неким "prior distribution" -- который задает (субьективную) вероятность того что там все 60 черных, вероятность того что там 59 черных один желтый и т.д. -- исходя из чего можно уже считать risk и return, integrating the prior out. Понятно что для каждого человека эти вероятности могут быть разные, в зависимости от доверия экспериментатору например :)

Суть "парадокса" в том что это описание не адекватно человеческому восприятию -- т.е. независимо от того каковы представления конкретного человека о "вероятностях распределений шаров" он не будет так себя вести.

Заметим еще что для события типа "получил 100 долларов или не получил" risk and return определяются одним и тем же параметром (т.е. вероятностью получить 100 долларов), т.е. не может быть варианта где риск (в классическом понимании) разный а return одинаковый:
http://en.wikipedia.org/wiki/Bernoulli_distribution

(no subject)

Date: 2009-02-28 04:38 pm (UTC)
From: [identity profile] duginov.livejournal.com
Про то, что предпочтения людей будут не напрямую связаны с вероятностями - это вы очень верно заметили. В зависимости от того, как сформулировать gamble, результаты будут разными вследсвие loss aversion.
http://en.wikipedia.org/wiki/Loss_aversion

Если сказать: вы отдаёте собственные 100 долларов в кассу, далее выбираете игру и получаете или не получаете деньги назад, результат будет один. Если сказать, что вы ничего в принципе не можете потерять, а только приобретаете, результат будет другой, даже если метод игр совершенно не меняется.

(no subject)

Date: 2009-02-28 11:03 pm (UTC)
From: [identity profile] 109.livejournal.com
я нисколько не сомневаюсь, что вы человек умный и неординарный. но вот мысли свои вы выражаете таким образом, что поиск пойнта в каждом вашем комментарии требует много времени и труда. усугубляется это тем, что вы всё время уклоняетесь от ответов на мои вопросы, направленные на то, чтобы прояснить, есть ли у вас пойнт, и в чём он заключается. поэтому не обессудьте, что я перейду на ещё более короткие вопросы, от которых, надеюсь, уклониться будет труднее. итак:

1. видите ли вы разницу между вашим примером и "парадоксом" Элсберга?

(no subject)

Date: 2009-03-01 12:46 am (UTC)
From: [identity profile] keethraxx.livejournal.com
не надо меня хвалить ^^ я в общем и сам в курсе что с доходчивыми обьяснениями у меня часто проблема :/ что конечно sucks и в жизни сильно мешает.

по части разницы между задачами -- да; вижу -- но мне она не кажется критической. Поскольку с вашей точки зрения она существенна давайте не будем отвлекаться на нее и рассмотрим задачу в том виде в котором вы ее привели в исходном посте. я обязательно это сделаю подробнее отдельно.

Тут пока замечу что к примеру на http://en.wikipedia.org/wiki/Ambiguity_aversion парадокс цитируется именно в таком виде:

Ambiguity aversion (also known as uncertainty aversion) describes an attitude of preference for known risks over unknown risks. It is demonstrated in the Ellsberg paradox (i.e. that people prefer to bet on an urn with 50 Red and 50 Blue balls, than in one with 100 total balls but where the number of blue or red balls is unknown).

Note that it is not the same as risk aversion, since it is a rejection of types of risk based in part on measures of their certainty, not solely on their magnitude.

Собственно вот этот последний абзац я тут и пытаюсь всячески пересказать ^^

(no subject)

Date: 2009-03-01 01:45 am (UTC)
From: [identity profile] anatoly borodin (from livejournal.com)
Хорошо, с тысячей и двумя разобрались. Что насчёт таких альтернатив?

1) 100% - 1000
2) 50% - 0; 50% - 2001

(no subject)

Date: 2009-03-01 07:57 am (UTC)
From: [identity profile] http://users.livejournal.com/_foreseer/
как известно деньги меряются логарифмом, поэтому выбор зависит от имеющегося количества денег. В данном случае break point где-то в районе 1M, если у вас меньше 1M надо брать 1), если больше - 2)

(no subject)

Date: 2009-03-01 08:14 am (UTC)
From: [identity profile] anatoly borodin (from livejournal.com)
как известно деньги меряются логарифмом

Логарифмом деньгу меряет человеческий мозг, который склонен к ошибкам. Взять парадокс Монти Холла, например. Меня же интересует правильное решение с логической точки зрения.

PS Ещё модификации задачи: эксперимент проводится не 1 раз, а, например, 1000. Где будет break point в этом случае?

(no subject)

Date: 2009-03-01 10:10 am (UTC)
From: [identity profile] http://users.livejournal.com/_foreseer/
при чем тут мозг. Логарифм берется из того, что деньги отрицательными не бывают. Если вы допускаете отрицательные деньги любой величины, то логарифм не нужен и всегда надо выбирать 2). Однако, что-то мне подсказывает, что вы не сможете стать обладателем скажем -$10G денег :)

От количества испытаний break point не меняется. Естественно выбирать 1) или 2) нужно перед каждым испытанием в зависимости от того >1M у нас сейчас или нет. Если надо выбрать 1) или 2) один раз на все 1000 испытаний, то тоже можно посчитать, но, честно говоря, мне лень считать :)

про "денег больше":
1) log(X + 1000)
2) 0.5 * log(X) + 0.5 * log(X + 2001)
я утверждаю, что 2) болльше чем 1) для X > 1M

(no subject)

Date: 2009-03-01 12:55 pm (UTC)
From: [identity profile] anatoly borodin (from livejournal.com)
Однако, что-то мне подсказывает, что вы не сможете стать обладателем скажем -$10G денег

Могу, и это называется долг. Собственно, для удобства работы с отрицательными денежными суммами и были введены отрицательные числа сотни лет назад.

Не говоря уже о том, что 0 денег Вы сами можете представить у себя в кошельке, так чему же равен log (0)?

про "денег больше":
1) log(X + 1000)
2) 0.5 * log(X) + 0.5 * log(X + 2001)
я утверждаю, что 2) болльше чем 1) для X > 1M


Я предлагаю исследовать задачу

1) log(1000)
2) 0.5 * log(0) + 0.5 * log(X + 2000)

Не будете ли Вы утверждать, что 2000 вообще ничего не решают, и второй вариант всегда проигрышный?

PS Деньги аддитивны, а не мультипликативны.

(no subject)

Date: 2009-03-01 06:57 pm (UTC)
From: [identity profile] http://users.livejournal.com/_foreseer/
Ok. Возьмите в долг $10G денег, обсудим результаты. Ну или можете выдать в долг $10K паре бомжей с курского вокзала, чтобы доказать свою точку зрения. Вы ведь всегда сможете забрать эти $10K обратно и у бомжей станет минус $10K, правда? :)

деньги в кошельке это вовсе не все ваши деньги, у вас наверняка есть какая-то собственность, работа, вы можете найти поручителей, взять денег у семьи итп. Это всё ваши деньги. 0 денег это когда ничего этого у вас нет. В современном мире представить живого человека с абсолютным 0 денег невозможно - ему дадут милостыню, пособие итп. Поэтому говорить о log(0) бессмысленно.

Также, думаю, вам знакомо понятие долговая тюрьма - в нее сажают не когда у вас 0 в кошельке и вы должны 100 рублей соседу.

Второй вариант всегда проигрышный, да. Если не рассматривать варианты типа "мне не хватает на операцию на сердце 2000, без операции я умру" и другие варианты нелинейного роста "счастья" с ростом количества денег.

я вовсе не собираюсь вас разубеждать, что деньги аддитивны, наоборот, я буду очень рад, если вы с такими воззрениями пойдете торговать на биржу скажем :)

(no subject)

Date: 2009-03-01 08:17 am (UTC)
From: [identity profile] anatoly borodin (from livejournal.com)
Ещё раз насчёт логарифмов. Как из "деньги меряются логарифмом" следует "1М"? Денег же во второй альтернативе мы получаем больше, что с логарифмами, что без.

(no subject)

Date: 2009-02-28 06:42 am (UTC)
From: [identity profile] http://users.livejournal.com/_foreseer/
для любого конкретного prior распределения количества черных шаров такие предпочтения не рациональны
почему нерациональны? Допутим prior симметричный, тогда expected return в обоих случаях 66.(6), только в случае D volatility даже в вашем смысле "стандартное отклонение прибыли" - 0, а в случае C больше 0. А prior - симметричный, потому что единственная информация, которая у нас есть - цвет шаров - никак не влияет на распределение.

(no subject)

Date: 2009-02-28 07:24 am (UTC)
From: [identity profile] http://users.livejournal.com/_foreseer/
еще раз подумал - там даже симметрии нет. В C/D нам предлагают gamble на red/yellow, а на red/black - нет. Так что D нужно выбирать еще и из принципа максимизации минимальной прибыли, а то опять "обманут, ничего не дадут" :)

в общем не парадокс, а nobrainer какой-то :)

(no subject)

Date: 2009-02-28 11:29 am (UTC)
From: [identity profile] keethraxx.livejournal.com
есть вариант где цвета можно самим выбирать
вот например http://109.livejournal.com/455013.html?thread=1729637#t1729637

(no subject)

Date: 2009-02-28 12:13 pm (UTC)
From: [identity profile] keethraxx.livejournal.com
=== expected return в обоих случаях 60, только в случае D volatility даже в вашем смысле "стандартное отклонение прибыли" - 0,


Что-то вы не то считаете -- если expected return 60 то стандартное отклонение прибыли sqrt(.6*(1-.6))*100=49.

PS. Пардон за edit -- обсчитался ^^
--
Marge: ...It is easy to criticize!
Homer: Fun, too!

(no subject)

Date: 2009-03-01 07:40 am (UTC)
From: [identity profile] http://users.livejournal.com/_foreseer/
да, я неправильно написал. Смотрите, в данном случае у нас 2 неопределенности, одна - процент выигрышных случаев, вторая - розыгрыш этого процента. В D процент выигрыша определен, в C - нет. Я утверждаю, что риска в случае C больше, хотя expected return и одинаковый. Пусть у нас 2 вида шаров и gamble A это 50/50, а gamble B это 25/75 либо 75/25, за правильный шар платим 100 за неправильный 0, как в посте. Тогда дисперсия в gamble A будет 2500. А в gamble B будет дисперсия 1875 в 25/75 и 75/25 _плюс_ дисперсия за выбор между 25/75 и 75/25 еще 1875, т.е. 3700 всего.

в посте выше я написал, что дисперсии в проценте выигрышей в одном случае нет, а во втором - есть.

(no subject)

Date: 2009-03-01 08:30 am (UTC)
From: [identity profile] http://users.livejournal.com/_foreseer/
наверно я понял в чем парадокс - в момент вытягивания шара gamble A и gamble B эквивалентны, у обоих 50%, а что там мы знаем про шары никак не влияет на результат.

В общем люди не любят неопределенностей, даже если они не влияют на результат :)

(no subject)

Date: 2009-03-01 09:35 am (UTC)
From: [identity profile] 109.livejournal.com
50% чего? 1/3 ты хотел сказать? нет, 1/3 только в случае А, в случае Б про вероятность выигрыша из условий задачи сказать можно только, что она между 0 и 2/3.

(no subject)

Date: 2009-03-01 10:15 am (UTC)
From: [identity profile] http://users.livejournal.com/_foreseer/
i was referring to this gamble, я их неудачно назвал A и B, надо было J и K :)

в исходном A и B - да

(no subject)

Date: 2009-03-01 09:08 am (UTC)
From: [identity profile] http://users.livejournal.com/_foreseer/
хмм, опять обсчитался. за выбор между 25/75 и 75/25 дисперсия 625, а не 1875. Так что в обоих случаях в сумме 2500. Со всех сторон без разницы получается :)

Profile

109: (Default)
109

March 2019

S M T W T F S
     12
3456789
101112131415 16
17181920212223
24252627282930
31      

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags