Войти в систему

Home
    - Создать дневник
    - Написать в дневник
       - Подробный режим

LJ.Rossia.org
    - Новости сайта
    - Общие настройки
    - Sitemap
    - Оплата
    - ljr-fif

Редактировать...
    - Настройки
    - Список друзей
    - Дневник
    - Картинки
    - Пароль
    - Вид дневника

Сообщества

Настроить S2

Помощь
    - Забыли пароль?
    - FAQ
    - Тех. поддержка



Пишет ivanov_petrov ([info]ivanov_petrov)
@ 2004-10-14 02:27:00


Previous Entry  Add to memories!  Tell a Friend!  Next Entry
Энтропия – функция разнообразия?
Давно мучает меня вопрос. Предположим, берем мы какую-нибудь собаку и охлаждаем до абсолютного нуля. Энтропия в ней будет равна 0. Верно? Если теплота – беспорядочное колебательное движение молекул, то при охлаждении энтропия системы должна уменьшаться. Когда же тепловое движение полностью прекратится, система будет при абсолютном нуле температуры. Естественно предположить, что при такой температуре энтропия равна нулю.
Берем ту же несчастную собаку, но все атомы ее тела группируем в кучки: кучка углерода, азота, водорода и проч. Такая вот сгруппировавшаяся собака тоже охлаждается до абсолютного 0. Вроде бы энтропия ее тоже должна быть равна 0. Однако энтропия – это еще и мера разнообразия, а вот разнообразие у этих двух собак разное: в одной атомы лежат этак, а в другой в кучки собраны. Как сей парадокс решается?


(Добавить комментарий)


[info]tsvetna@lj
2004-10-13 23:33 (ссылка)
Если не ошибаюсь, дело в том, что энтропия в термодинамике и в теории информации определяется по-разному.

(Ответить) (Ветвь дискуссии)


[info]lxe@lj
2004-10-13 23:34 (ссылка)
Не в этом.

(Ответить) (Уровень выше)


[info]lxe@lj
2004-10-13 23:35 (ссылка)
И не по-разному.

(Ответить) (Уровень выше)


[info]lxe@lj
2004-10-13 23:34 (ссылка)
Не мера разнообразия, а мера неопределенности.

У Вас никогда не было матери/сестры/жены/дочери, которая бы
прибиралась на Вашем столе без спросу?

(Ответить) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2004-10-14 00:07 (ссылка)
Да-да, хорошо, неопределенности. Про разнообразие можно потом, довеском. Так в чем тут дело?

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]lxe@lj
2004-10-14 00:18 (ссылка)
Неважно, как они лежат. Важно, что лежат в определенном порядке.

Когда женщина убирает рабочий стол мужчины, она, как правило, снижает разнообразие (потому что это единственный понятный ей критерий направления уборки: "синенькое к синенькому, металлическое к металлическому"). При этом создается неопределенность, равная количеству информации, которое нужно сообщить мужчине, чтобы он снова начал ориентироваться на своем рабочем столе.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2004-10-14 00:31 (ссылка)
Не понял. С виду - ответ не на тему.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]lxe@lj
2004-10-14 09:33 (ссылка)
Откуда Вы взяли, что энтропия разобранной собаки ниже энтропии собаки неразобранной?

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2004-10-17 20:33 (ссылка)
Энтропия есть в том числе мера неупорядоченности. Если атомы лежат в группах по сорту, а в другом случае они, скажем, раскиданы беспорядочно - это разная степень упорядоченности/неупорядоченности. По крайней мере, мне так кажется. Если это не так, объясните, почему.

(Ответить) (Уровень выше)


[info]amzin@lj
2004-10-14 00:56 (ссылка)
Разве очевидно, что вторая собака более упорядочена?

(Ответить) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2004-10-17 20:33 (ссылка)
Мне очевидно. Почему нет?

(Ответить) (Уровень выше)


[info]ex_kosilova@lj
2004-10-14 01:46 (ссылка)
Третье начало термодинамики (теорема Нернста):
При абсолютном нуле температуры любые изменения состояния происходят без изменения энтропии.
поэтому между Вашими двумя собаками при абсолютном нуле нет разницы

(Ответить) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2004-10-17 20:34 (ссылка)
Да, в том-то и вопрос. Теорема Нернста гласит, что разницы нет. Однако из условий ясно, что есть.

(Ответить) (Уровень выше)


[info]arno1251@lj
2004-10-14 02:22 (ссылка)
Я не уверен, что энтропия у замороженной до нуля собаки будет равна нулю. Из чего это следует? Я плохо помню физику, простите. Как я понимаю, для нулевой энтропии перед заморозкой собаку следует хорошенько покрутить в миксере. Любое отклонение от такого равновесно-случайного состояния будет сопровождаться увеличением энтропии.

(Ответить) (Ветвь дискуссии)


[info]109@lj
2004-10-14 03:47 (ссылка)
уменьшением. равновесное состояние имеет максимальную энтропию.

удовлетворяя любознательность автора дневничка, энтропия имеет конфигурационную составляющую. которая не обязательно равна нулю при абсолютном нуле. точнее, равна нулю только в идеальном кристалле.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]arno1251@lj
2004-10-14 04:16 (ссылка)
Ну конечно же! Теперь понял. Я всё напутал.
Перед охлаждением псину нужно довести до состояния идеального нелающего кристалла.
Где ты, общество защиты животных?

(Ответить) (Уровень выше)


[info]ivanov_petrov@lj
2004-10-17 20:36 (ссылка)
Спасибо за удовлетворение любознательности. То есть у обоих собак энтропия при 0 не будет равна 0. Она будет у каждой своя, при том, что температура - абс. 0. Так? А можно подробнее о конфигурационной составляющей? Мне представлялось, что дело так и обстоит, как Вы написали, но в "школьных" источниках не нашел ответа - там везде говорится именно об одинаковости энтропий при 0, независимо от "конфигурации".

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]109@lj
2004-10-18 03:21 (ссылка)
пример конфигурационной энтропии - смесь чёрных и белых шариков. если они разложены на две кучки, то энтропия равна нулю. если кинуть в кучу белых несколько чёрных, то энтропия кучи будет равна константе больцмана умноженной на число сочетаний C(N, m), где N - общее число шариков в куче, m - количество чёрных шариков.

ну или не шариков, а молекул типов A и B.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]109@lj
2004-10-18 03:37 (ссылка)
прочитал свежие комменты и счёл необходимым добавить (чтобы не заклевали выпускники МГУ с отличием), что k*ln(N), где N - число состояний системы - это формула из статистической термодинамики. в классической термодинамике эта формула не существует и никак не выводится. наоборот, с помощью этой формулы в статах можно получить все классические. сама же формула, по-моему, просто постулируется. а собственно энтропия одна и та же и там и там, так что не верьте глазам своим, если на клетке слона написано "буйвол".

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2004-10-18 04:23 (ссылка)
Большое спасибо. Вот беда - энтропия одна и та же - мне тоже так казалось. Степень упорядоченности ситуаций при абс. нуле - разная. Энтропия имеет отношение к степени упорядоченности. И куды крестьянину податься?

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]109@lj
2004-10-18 07:41 (ссылка)
не понял вопроса. степень упорядоченности разная, число состояний разное, конфигурационная энтропия тоже разная. что вас смущает?

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2004-10-18 21:55 (ссылка)
ОК. Я скажу, что смущает, но - по необходимости - на непрофессиональном языке. Энтропия - это единая величина, нет "разных" энтропий. Как показатель массово-энергетический, больцмановская энтропия ведет себя понятно. Но есть "остаток" - то, что Вы назвали конфигурационной энтропией. Она связана со строением системы, с ее формой. Насколько я понимаю, форма не относится к тому аспекту мира, что описывается массой и энергией. И возникает такое привесочное понятие, как конфигуративная энтропия. Я понимаю, для профессионала нечто является привычным. а для человека со стороны - предметом искреннего изумления. И все ж: если так, в понятии энтропии проявляется аспект мира, не являющийся обычным предметом "массово-энергетической" (опять же извиняюсь за термин) физики. Вот этот аспект меня и интересует - изучение структур, которые не сводятся к своим массово-энерегтическим характеристикам.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]109@lj
2004-10-19 03:19 (ссылка)
почитайте какие-нибудь популяторские книжки по статистической термодинамике. вы будете удивлены, как такие, казалось бы, "неэнергетические" параметры, как количество состояний системы и их распределение описывают всю энергетику системы. ну и порядок/беспорядок, само собой.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2004-10-19 03:37 (ссылка)
Большое спасибо.

(Ответить) (Уровень выше)


[info]ikadell@lj
2004-10-14 05:26 (ссылка)
Я не физик, но чем Ваш вопрос принципиально отличается от такого: в чем разница между энтропией охлажденного до нуля кирпича и такого же количества кирпичной крошки? или важно, чтобы она была взята от того же кирпича?

(Ответить) (Ветвь дискуссии)


[info]juan_gandhi@lj
2004-10-14 15:24 (ссылка)
Вот тут-то и возникают вопросы типа моих про материю.

а. Берём кирпич и доводим его энтропию до нуля.

б. Берём кирпич, разрезаем на две части, и доводим их энтропию до нуля.

в. Берём кирпич, разрезаем на две части, одну часть выбрасываем, а у другой доводим энтропию до нуля.

г. Берём кирпич, отрезаем от него одну молекулу, остальное выбрасываем. У молекулы доводим энтропию до нуля.

Есть разница?

(Ответить) (Уровень выше)


[info]semenyaka@lj
2004-10-15 09:02 (ссылка)
Просто решается :) Дело в том, что, говоря о температуре - Вы однозначно понимаете энтропию вполне специфическим образом, в который упорядоченность собаки per se не входит. И поэтому абсолютный ноль значит вполне определённую вещь в плане упорядоченности - это упорядоченность, грубо говоря, движения на микроуровне. Если хочется понимать энтропию в другом смысле - ну так и температура должна быть не та, которая всего лишь интегрирующий делитель неполного дифференциала теплоты :)

Если говорить строже, то надо ещё более детализировать, говорим ли мы в терминах феноменологической термодинамики или статистической. Это не разные науки, но опять-таки, мешать не стоит.

Так что парадокс - просто в смешении понятий, которые называются одинаково, но носят всё же несколько разный змызл.

(Ответить) (Ветвь дискуссии)

Усилим змызл вашей мысли
[info]sgustchalost@lj
2004-10-16 03:48 (ссылка)
"Так что парадокс - просто в смешении понятий, которые называются одинаково, но носят всё же несколько разный змызл"

Берем лист бумаги, пишем на ней 56 букв, выбранных генератором случайных чисел.
Берем лист бумаги, пишем на ней:
аразгадкавсемуаразгадкавсемуаразгадкавсемуаразгадкавсему.
"Ясно", что энтропия второй системы ниже.

Охлаждаем два листа бумаги...

Спрашивается, причем здесь Лужков

(Ответить) (Уровень выше) (Ветвь дискуссии)

Re: Усилим змызл вашей мысли
[info]semenyaka@lj
2004-10-16 03:59 (ссылка)
Кому ясно, что энтропия второй системы ниже, я прошу прощения? Мне - неясно. Можно сначала строгие определения энтропии и температуры увидеть? Научпопное "мера беспоряка" не подходит, разумеется.

Известное доказательство того, что деньги есть зло: выходишь на рынок, и зла не хватает. Ага-ага.

(Ответить) (Уровень выше) (Ветвь дискуссии)

Re: Усилим змызл вашей мысли
[info]sgustchalost@lj
2004-10-16 04:40 (ссылка)
Мне тоже неясно.
Определений энтропии (и "информации"), равно как и температуры давать не буду. Для начала готов принять любое ваше.
Неприятность в том, что "строгие" определения как-то сразу начинают сбоить, как только выходят за рамки простейшей термодинамики и передачи сигналов.

(Ответить) (Уровень выше) (Ветвь дискуссии)

Re: Усилим змызл вашей мысли
[info]semenyaka@lj
2004-10-16 06:38 (ссылка)
Я прошу прозения за нотацию, но зачем же оперировать понятиями, которые непонятны? Всё равно, что нажимать на кнопки на непонятном агрегате, считая парадоксом то, что он делает не то, что Вы придумали.

Что я понимаю - уже писал. В первом начале термодинамики есть неполный дифференциал теплоты. Чтобы сделать его полным, требуется интегрирующий делитель. В результате деления получается дифференциал энтропии, а сам делитель является абсолютной температурой.

(Ответить) (Уровень выше) (Ветвь дискуссии)

Непродуктивный диалог
[info]sgustchalost@lj
2004-10-16 07:10 (ссылка)
Я прошу прозения за нотацию, но не следует считать собеседника априори дурачком. Мне доводилось кончать физфак МГУ с отличием и делать диссертацию в Мнституте проблем передачи информации АН СССР.
Поэтому начальные ходы партии мне известны. Просто по первому вашему посту мне показалось, что вы сможете что-то сформулировать любопытное хозяину (а мне некогда). Но что-то дальше 1 закона вы пока не продвинулись.

Если вам понятно понятие(я) энтропии "в широком смысле", значит вы о нем не думали, только и всего...

(Ответить) (Уровень выше) (Ветвь дискуссии)

Re: Непродуктивный диалог
[info]semenyaka@lj
2004-10-16 07:47 (ссылка)
А вот априори я никого никем не считаю :) Физфак МГУ - это прекрасно, ИППИ - тоже, но почему из этого следует возможность смешения понятий - мне непонятно. Диалог невозможен, если не выверены определения.

Что такое "энтропия" в широком смысле я, как можно заметить, и не пытался определять. Я дал одно определение, достаточно узкоспециальное, и на всеобъемлющий характер не претендующее. Но в его рамках объединены понятия, содержащиеся в исходном вопросе. Я готов рассмотреть любые более широкие определения (которые Вы отказались предоставить), которые содержат какую-либо температуру в понимании термодинамики как части физики.

Можете считать, что я и до первого закона не добрался, если Вам угодно - сути предмета это не поменяет. Сначала обозначение рамок, потом система определений, потом парадоксы, а не наоборот. А иначе - начинается плетение красивых слов без какой-либо опоры. Не дискуссия, а симулякр.

(Ответить) (Уровень выше) (Ветвь дискуссии)

100% согласен
[info]sgustchalost@lj
2004-10-16 08:06 (ссылка)
Сначала обозначение рамок, потом система определений, потом парадоксы, а не наоборот. А иначе - начинается плетение красивых слов без какой-либо опоры."
Просто я хотел бы, чтобы вы эту работу СДЕЛАЛИ (а не рассказывали, общие принципы ее устройства). А я бы читал и мелко подкалывал.

(Ответить) (Уровень выше) (Ветвь дискуссии)

Re: 100% согласен
[info]semenyaka@lj
2004-10-17 13:23 (ссылка)
Ну как я буду доказывать, что 3 - красное? ;)

Пока мы связаны понятием "температура" - энтропия выглядит вполне себе неинтересно. Не нравится феноменологическая термодинамика (из которой я уже приводил определения) - можно про статистическую поговорить, с тем же результатом. Есть такая температура, которая включает в себя информационную составляющую? Насколько я помню второй, кажется, принцип термодинамики - это вряд ли (я про тот, который определяет относительную температуру, как функцию систем, совпадающую, если при непроникающем контакте не происходит передачи теплоты). А, стало быть, к абсолютному нулю мы не придём.

Поэтому я просто не вижу, о чём спорить. Парадокса нет, есть некоторое смешение понятий. Как конструктивно им пользоваться - я не знаю :)

(Ответить) (Уровень выше)

Re: 100% согласен
[info]ivanov_petrov@lj
2004-10-17 22:22 (ссылка)
Я так понял из этого разговора, что Вы могли бы мне помочь, только у вас времени нет? При случае. вдруг оно появится - пожалуйста, уделите минуток 7-20, напишите мне разгадку. Только я не физик, и потому мне надо как-то просто. Ну. или сказать, что это очень сложно и профану не понять даже на самом общем уровне.

(Ответить) (Уровень выше)


[info]ivanov_petrov@lj
2004-10-17 20:38 (ссылка)
Ожидаемый ответ. Следует ли Вас понимать так, что энтропия по отношению к температуре и энтропия по отношению к упорядоченности - это просто омонимы? Смыслы совсем разные, просто в разных областях физики одно слово занято разными смыслами? Я в этом сомневаюсь, но, конечно, физика могуча и обильна, может всякое случиться.

(Ответить) (Уровень выше)


[info]a_rakovskij@lj
2004-10-17 23:51 (ссылка)
В системе может протекать несколько энтропийных процессов. В данном примере с точки зрения теплового энтропийного процесса сабаки равны. А вот с точки зрения информационного (хотя бы информация о размещении атомов) - нет.

(Ответить) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2004-10-18 02:13 (ссылка)
Все равно не очень понял. Для меня это значит. что есть "две" энтропии с разными определениями, с друг другом почти не связанные. Шенноновская и ... какая? Как ее, тепловую назвать? забыл...

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]a_rakovskij@lj
2004-10-18 21:57 (ссылка)
Я лично понимаю энтропия имеет смысл как побочный эффект передачи/преобразования чего-то. Энергии/тепла, информации. Грубо говоря это фактор, который обеспечивает при такой передачи потери. И указывающий, что таковые есть всегда. Отсюда вытекает та же невозможность вечного двигателя (передача энергии из одной формы в другую не будет из-за потерь продолжатся вечно) и невозможность неограниченной передачи информации.

Возвращаясь к нашим баранам, то бишь к Вашему примеру. С точки зрения тепловой энергии варианты равны. С точки зрения информационной - нет.

Вы же рассматриваете энтропию в качестве какого-то универсального измерителя упорядочености. Я слабо представляю что это тогда за универсальный измеритель...

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2004-10-19 01:16 (ссылка)
Хотите - скажите слово "структура", хотите - форма, разнообразие. Не важно. Выход к не масс-энергетическому аспекту, к строению как фундаментальной вещи. Морфолог во мне жаждет: ну сколько можно строить науку, не учитывая форму? Ведь то, что до сих пор сделано в этом отношении - еще не первые шаги. а ползанье с торжественным гуканьем.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]a_rakovskij@lj
2004-10-19 23:32 (ссылка)
Хм. Я не очень понимаю, что Вы здесь имеете в виду под формой. Энтропия может быть применена к процессу. Но не к форме/структуре.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2004-10-19 23:50 (ссылка)
Это уже мне не понятно. Я не думаю, что различие структуры и процесса фундаментально. Любую структуру можно понимать каакпроцесс, любой процесс изучать структурно. Это - подход, а не факт. Но если Вам не нравится словоуполтребление - то ведь выбрать можно другое слово - формулы и их смысл не изменятся. Можно говорить о неопределенности, можно - реже, но делают так - о разнообразии, можно - о субстрате разнообразия, который можно назвать структурой (формой). Прочто ответ на вопрос "что?" - разнообразие чего имеется в виду? неопределенности чего идет речь? Кстати, чем страшно выражение "форма процесса"?

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]a_rakovskij@lj
2004-10-20 20:33 (ссылка)
Хм. Понял вашу терминологию. Хорошо, останавливаемся на ней. Теперь вернемся к нашей бедной собаке. Если принимать форма/структура столь расширительно, как Вы предлагаете, то тогда откуда следует вывод о том, что энтропия при замораживании станет равной 0?

Как я вижу, тут прям-таки напрашивается забавный вывод. Энтропия станет нулевой если ограничить модель, упростить до предела рассматриваемую структуру.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2004-10-21 03:51 (ссылка)
Выше по треду физически развитые граждане мне объяснили. что это сильное упрощение. Ноль - это в идеале, кристалл или идеальный газ. Разница будет в моем примере именно на структурированность системы. Оно и ясно - энтропия меряет упорядоченность,неупорядоченность. Вот мне и хотелось отсюда прокарабкаться к тому, как не-массово-энергетический мир описывается. в нем же другие законы действуют. насколько мне извсетно - грубо, конечно - физика основана на законах сохранения. А в мире структур не действуют законы сохранения, там есть полное уничтожение и рождение вновь. Совсем другая теоретическая картина должна получаться. Но - такого отклика не получил. Видимо, говорю на столь корявом и наивном языке, что образованные в физике люди сразу морщатся и уходят.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]a_rakovskij@lj
2004-10-24 19:38 (ссылка)
Оно и ясно - энтропия меряет упорядоченность, неупорядоченность

М... Как мне представляется, энтропия не меряет упорядоченность. Она меряет потери. Конечно, нарастание потерь в конечном итоге ведет к разрушению упорядосенности. Но тем не менее, здесь если и зашита оценка упорядоченности, то коственная. Никак не прямая.

Небольшая аналогия из радиодела (мне как, пусть и бывшему, радиоинженеру тут привычнее). Одной из характеристик усилителей являются нелинейные искажения. Все привыкли качество аппаратуры по ним и оценивать. Однако на самом деле они ни о чем не говорят. Обычный динамик сходу даст несколько процентов их. И вроде бы толку-то добиваться десятых/сотых долей процента от усилителя... На самом деле уху слышны интермодуляционные искажения. И они все определяют. Просто в данных схемотехнических решениях малые нелинейные искажения свидетельствуют и о малых интермодуляционных.

А я это все к тому, что коственная связь, хоть и срабатывает чаще всего, тем не менее она есть коственная. Вполне возможно представить систему где будут малые нелинейные, а вот интермодуляционные - значимые. Так и тут. Можно предположить, что существует структура, где иэнтропия и упорядоченность высоки. Наверное все же для того что Вы хотите понять, надо избрать какой-то другой параметр. Не энтропию.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2004-10-25 03:10 (ссылка)
А пример можно придумать? Где велика и энтропия, и упорядоченность? Можно косвенный.

(Ответить) (Уровень выше)


[info]hojja_nusreddin@lj
2004-10-20 02:55 (ссылка)
http://www.livejournal.com/users/ivanov_petrov/21331.html?thread=274003#t274003 - прав!
Абсолютный нуль температуры минимизирует этропию только для ИДЕАЛЬНОГО ГАЗА - стандартной дрозофилы ученого термодинамика 19 века (полностью стохастической системы :)
Для всех других систем при абс. нуле достигается лишь "локальный минимум", допускающий дальнейшую стохастическую "идеализацию"

(Ответить) (Ветвь дискуссии)

сцылка :)
[info]hojja_nusreddin@lj
2004-10-20 02:56 (ссылка)
http://www.chronos.msu.ru/RREPORTS/khazen_vtoroye/khazen_vtoroye.htm

(Ответить) (Уровень выше) (Ветвь дискуссии)

Re: сцылка :)
[info]ivanov_petrov@lj
2004-10-20 21:31 (ссылка)
Спасибо за великолепную ссылку. Весьма помогла. Вопросов осталось еще много, но на то они и вопросы...

(Ответить) (Уровень выше)


[info]ivanov_petrov@lj
2004-10-20 21:25 (ссылка)
Спасибо. Об этом я чуть-чуть понял. Интересно про "конфигуративную составляющую" энтропии, которую упоминали в этой дискуссии.

(Ответить) (Уровень выше)