Все статьи подряд / Математика / Хабр's Journal
 
[Most Recent Entries] [Calendar View]

Tuesday, July 22nd, 2025

    Time Event
    6:10a
    Математика без боли: как освоить предмет, если не занимались им со школы

    Можете ли вы отличить синус от косинуса, арифметическую прогрессию от геометрической, а моду от медианы? Если даже размышления на эти темы вызывают боль, то вы не одиноки. 

    В этой статье я собрала рабочие приёмы, которые помогут снизить боль от знакомства с дивным новым миром производных и интегралов. Материал составлялся с расчётом на разработчиков и аналитиков, которым математика нужна для работы, но многие советы универсальны и подойдут большинству людей при освоении любого нового предмета.

    Читать далее
    6:46a
    Краткая история бесконечности, часть 3

    История бесконечности потенциально бесконечна, но фактически, увы и ах, эта статья будет последней в нашем цикле. Кстати, предыдущее предложение звучало бы смешнее на английском (...but actually). Но я пишу её не на языке Ньютона и Шекспира, а на языке Колмогорова и Есенина, так что придётся читателю довольствоваться лишь потенциальным каламбуром.

    В компьютерных RPG часто бывает три концовки: добрая, злая и true ending. В данном случае реальная жизнь повторяет за геймдевом, и в истории бесконечности все эти сюжетные ветки также присутствуют. Под катом я расскажу, в чём их смысл и какие персонажи класса «математик» прошли игру «Жизнь» с этими концовками.

    Читать далее
    7:15a
    Как я написал покер‑бот за 4 недели, используя Cursor + GPT

    Мой первый опыт публикации и рассказ о том, как я за четыре недели сделал рабочую альфа-версию покер-бота. В проекте использованы методы Монте-Карло, компьютерное зрение (YOLO), Python и инструменты вроде Cursor и Roboflow.

    Текст будет полезен новичкам в машинном обучении и компьютерном зрении, тем, кто хочет понять, как связать ИИ, детекцию объектов и покерную математику в одном проекте, а также всем, кто интересуется практическим применением ИИ для создания собственных инструментов.

    Читать далее
    11:15a
    Правда ли KAN лучше MLP? Свойство разделения глубины между двумя архитектурами

    Прошлым летом в свет вышла новая архитектура нейронных сетей под названием Kolmogorov-Arnold Networks (KAN). На момент выхода статьи про KAN эта новость произвела фурор в мире машинного обучение, так как KAN показывала существенный прирост в качестве аппроксимации различных сложных функций. Ошибка новых сетей падает значительно быстрее при увеличении числа параметров. Однако, за все приходится платить, и цена таких маленьких значений функции ошибки - медленное обучение: KAN обучается примерно в 10 раз медленнее, чем старый добрый MLP. Из всего этого возникает вопрос: насколько все же уместно использование новой архитектуры вместо привычных всем MLP?

    В данной статье будет найдена функция, которая может быть реализована с помощью двухслойного KAN полиномиальной ширины, но не может быть приближена никакой двухслойной ReLU MLP сетью с полиномиальной шириной

    Читать далее

    << Previous Day 2025/07/22
    [Calendar]
    Next Day >>

Все статьи подряд / Математика / Хабр   About LJ.Rossia.org