Misha Verbitsky - June 16th, 2002

June 16th, 2002

June 16th, 2002
06:26 am

[Link]

with a whimper
К этому вот риторическому упражнению
восхитительного [info]krylov@lj
http://www.livejournal.com/talkread.bml?journal=krylov&itemid=345321&nc=5

В России ДЕЙСТВИТЕЛЬНО воруют
больше, чем в любой другой стране.
"Приватизация" есть нечто не
имеющее исторических прецедентов,
подобного масштаба воровства
история, по-моему, не знает.

А тот факт, что граждан, которые эту "приватизацию"
устроили, до сих пор не убили - показывает, что
наш народ обречен и не выживет. Раньше я думал,
что их непременно убьют, а теперь я знаю, что
их не убьют. Это они нас убьют. Никакой революции,
господа и товарищи, не будет. Райком закрыт.
Месту сему быть пусту.

Убейте меня что ль, тоже, кто-нибудь. Нахуя больше жить.
Не хочу.

Привет
Миша.

Current Mood: tired
Current Music: Gas - ZAUBERBERG

TimeEvent
07:46 am

[Link]

Об энтропии
По поводу энтропии,
в качестве ответа на комментарии к старой записи.
http://www.livejournal.com/talkread.bml?journal=tiphareth&itemid=120663

Шеннон уподобляет сообщение эргодической
динамической системе, или же марковскому процессу.
То есть под "сообщением" понимается типа старичок,
который трындит себе бесконечно в углу,
а эргодичность процесса понимается таком образом,
что два одинаковых старичка, посаженные рядом, будут
выдавать нечто статистически неотличимое от одного и того
же старичка, который натрындит в два раза больше.

Энтропия сообщения
понимается аксиоматически, следующим образом:

1. Она аддитивна. Другими словами, энтропия в сообщении
двух старичков, которые пользуются разными буквами,
такая же, как если бы один старичок говорил то же самое
в двух кодировках.

2. Если все буквы встречаются с одной и той же вероятностью,
то энтропия увеличивается при увеличении числа букв.

http://www.math.psu.edu/gunesch/entropy.html

Энтропия сообщения больше всего, если все буквы
и буквосочетания употребляются с одной и той же
вероятностью. В природе, сообщения с максимальной
энтропией встречаются если кто-то сядет на клавиатуру
очень толстый; типа вот

йфгй,бвдщй,шбхцохешоцйс
[цплшикуф09813р98о;/МК/М ;ОАДУХВ[0ь2УР9=-

Нег-энтропию сообщения можно вычислять двояко.
Можно говорить о минимальной длине алгоритма,
который будет выписывать (с некоторой степенью
достоверности или точно) данное сообщение;
это есть более-менее мера предсказуемости
сообщения. Можно говорить о минимальной
длине алгоритма, который будет проверять
(с некоторой степенью достоверности или
точно), сделано ли сообщение данным конкретным
старичком. Скажем, если старичок всегда
говорит в рифму, мы можем потребовать
от алгоритма, чтобы он проверял концовки строк;
а если старичок рассказывает про банду ельцина
под суд, пусть алгоритм следит, чтобы старичок не
говорил особо хорошего про Чубайса. Ну, проверяет
орфографию типа и все такое.

Отношение первой негэнтропии ко второй и есть,
собственно говоря, величие и монументальность;
а также красота, добро, справедливость, любовь,
женские половые признаки, советская власть и
электрификация всей страны.

Скажем, научная теорема хороша если она
(а) трудно доказуема и (б) легко формулируется.

Ане по поводу новой версии "Анархии не катит".
Она УЖАСНА.

Такие дела
Миша.

Current Mood: tired
Current Music: Gas

TimeEvent
08:15 am

[Link]

Господин Гематоген
САША ЗВЕРЕВА (ГРУППА «ДЕМО»)
ЗАСТАВИЛА ПАРНЯ СЪЕСТЬ КАКАШКУ.
Read more... )

Current Mood: tired
Current Music: Demo - DOZHDIK

Previous Day 2002/06/16
[Archive]
Next Day
:LENIN: Powered by LJ.Rossia.org