Все статьи подряд / Математика / Хабр's Journal
[Most Recent Entries]
[Calendar View]
Tuesday, July 22nd, 2025
Time |
Event |
6:10a |
Математика без боли: как освоить предмет, если не занимались им со школы  Можете ли вы отличить синус от косинуса, арифметическую прогрессию от геометрической, а моду от медианы? Если даже размышления на эти темы вызывают боль, то вы не одиноки. В этой статье я собрала рабочие приёмы, которые помогут снизить боль от знакомства с дивным новым миром производных и интегралов. Материал составлялся с расчётом на разработчиков и аналитиков, которым математика нужна для работы, но многие советы универсальны и подойдут большинству людей при освоении любого нового предмета. Читать далее | 6:46a |
Краткая история бесконечности, часть 3  История бесконечности потенциально бесконечна, но фактически, увы и ах, эта статья будет последней в нашем цикле. Кстати, предыдущее предложение звучало бы смешнее на английском (...but actually). Но я пишу её не на языке Ньютона и Шекспира, а на языке Колмогорова и Есенина, так что придётся читателю довольствоваться лишь потенциальным каламбуром. В компьютерных RPG часто бывает три концовки: добрая, злая и true ending. В данном случае реальная жизнь повторяет за геймдевом, и в истории бесконечности все эти сюжетные ветки также присутствуют. Под катом я расскажу, в чём их смысл и какие персонажи класса «математик» прошли игру «Жизнь» с этими концовками. Читать далее | 7:15a |
Как я написал покер‑бот за 4 недели, используя Cursor + GPT Мой первый опыт публикации и рассказ о том, как я за четыре недели сделал рабочую альфа-версию покер-бота. В проекте использованы методы Монте-Карло, компьютерное зрение (YOLO), Python и инструменты вроде Cursor и Roboflow.
Текст будет полезен новичкам в машинном обучении и компьютерном зрении, тем, кто хочет понять, как связать ИИ, детекцию объектов и покерную математику в одном проекте, а также всем, кто интересуется практическим применением ИИ для создания собственных инструментов. Читать далее | 11:15a |
Правда ли KAN лучше MLP? Свойство разделения глубины между двумя архитектурами  Прошлым летом в свет вышла новая архитектура нейронных сетей под названием Kolmogorov-Arnold Networks (KAN). На момент выхода статьи про KAN эта новость произвела фурор в мире машинного обучение, так как KAN показывала существенный прирост в качестве аппроксимации различных сложных функций. Ошибка новых сетей падает значительно быстрее при увеличении числа параметров. Однако, за все приходится платить, и цена таких маленьких значений функции ошибки - медленное обучение: KAN обучается примерно в 10 раз медленнее, чем старый добрый MLP. Из всего этого возникает вопрос: насколько все же уместно использование новой архитектуры вместо привычных всем MLP? В данной статье будет найдена функция, которая может быть реализована с помощью двухслойного KAN полиномиальной ширины, но не может быть приближена никакой двухслойной ReLU MLP сетью с полиномиальной шириной Читать далее |
|