Все статьи подряд / Математика / Хабр's Journal
 
[Most Recent Entries] [Calendar View]

Saturday, November 4th, 2023

    Time Event
    12:27p
    Постоянная тонкой структуры и магия чисел

    "Когда я умру, первым делом посчитаю спросить у дьявола, – каков смысл постоянной тонкой структуры?" Вольфганг Паули

    Так написано в статье в Википедии о этом числе.

    Решил поизучать в чем загадочность числа и обеспечил себе на две недели досуг за игрой в циферки. Очень интересная ира, для того чтобы отвлечься от работы, если нравится наука. Занимательность ниже изложенного в том, что с точки зрения Википедии даже нумерологические упражнения над этой постоянной не дали результата.

    Что отдельно интересно, все упражнения крутились вокруг некого числа около единицы, но никакие константы и их комбинации не подходили, и статья изначально задумывалась как констатация факта загадочности числа. Но неожидано сегодня получилась точность "аш 16 знаков, Карл!", и понял, что таким занимательным фактом нужно сразу делиться с другими людьми, интересующимися физ-мат дисциплинами.

    Как то сама пришла в голову мысль связать "1+1=2", постоянную Дирака и волновую функцию. Исключил из выражения волновой функции массу, подставил скорость света с минусом и планковскую длину, перевел величины в безразмерный вид, и просто следовал за числами, составляя аппроксимацию с постоянной тонкой структуры и математическими константами, что бы это не означало.

    Вот что получилось:

    Читать далее
    1:41p
    Архитектуры RL: DDPG иPPO

    Привет, уважаемые читатели Хабра!

    В RL существует множество алгоритмов, каждый из которых имеет свои преимущества и недостатки.

    DDPG (Deep Deterministic Policy Gradients) - это алгоритм, объединяющий в себе идеи из двух областей: DPG (Deterministic Policy Gradients) и DQN (Deep Q-Network). DDPG подходит для задач с непрерывным действием, и он стал основой к примеру для управления роботами и автономному вождению.

    PPO (Proximal Policy Optimization) - это алгоритм, который сосредотачивается на обучении стратегии (policy) с учетом границ для обновлений. PPO стал популярным выбором благодаря своей стабильности и хорошей производительности в различных средах. Он также широко используется в научном обучение, ИИ героев в играх и в других областях.

    Читать далее

    << Previous Day 2023/11/04
    [Calendar]
    Next Day >>

Все статьи подряд / Математика / Хабр   About LJ.Rossia.org