Войти в систему

Home
    - Создать дневник
    - Написать в дневник
       - Подробный режим

LJ.Rossia.org
    - Новости сайта
    - Общие настройки
    - Sitemap
    - Оплата
    - ljr-fif

Редактировать...
    - Настройки
    - Список друзей
    - Дневник
    - Картинки
    - Пароль
    - Вид дневника

Сообщества

Настроить S2

Помощь
    - Забыли пароль?
    - FAQ
    - Тех. поддержка



Пишет Misha Verbitsky ([info]tiphareth)
@ 2020-02-09 20:27:00


Previous Entry  Add to memories!  Tell a Friend!  Next Entry
Настроение: tired
Музыка:Forgotten Woods - AS THE WOLVES GATHER
Entry tags:math, smeshnoe

Cyclicly co-fibrant co-homotopy
Прекрасное
https://cemulate.github.io/the-mlab/
генератор статей из нкатлаба
совершенно неотличимых от оригинала
Уважаю дико

Если перегружать, она загружает новую статью,
такую же осмысленную! бесконечно много их.



(Читать комментарии) - (Добавить комментарий)


[info]sometimes
2020-02-13 02:39 (ссылка)
Не, так не взлетит (нейросеть генеративного типа генерит ахинею, там за сто лет аналитический движок ничего не найдет, это все равно как броуновским движением писать стихи, а потом искать смысл).

Alpha0 и LC0 работают приблизительно так: есть функция оценки позиции (сначала взятая с потолка), чуть-чуть пошевелим её; теперь старая функция играет с пошевеленной, а функция играет так: она делает в уме переборное дерево корректных ходов, но не полное, как аналитические движки, а предпочитая те ходы, которые, с точки зрения функции, хорошие (чем лучше ход, с т.з. функции, тем вероятнее, что функция будет туда считать - типа, как шахматист). Соответственно, если пошевеленная функция будет систематически выигрывать у непошевеленной, значит, мы в хорошую сторону пошевелили, и продолжаем шевелить туда же; если будет проигрывать, шевелим в обратную сторону. Потом берется новое случайное направление шевеления оценочной функции и т.п.

Важно, что все ходы - корректные; "математическому движку" в этом смысле соответствовали бы тоже только корректные "логические ходы".

Соответственно, в "математической игре" выигрыш тоже понятен - это когда теорема доказана. Проблема, однако, в том, что задач, на которых мог бы обучаться "математический движок", слишком мало: люди придумывают задачи из соображений "интересности", а интересность непонятно, как в движок запихнуть. Соответственно, либо нейросеть нужно пустить на вольные хлеба, придумывать и решать задачи самостоятельно, но тогда, даже если преуспеет, она научится доказывать какую-то бессмысленную одной ей интересную хуйню; либо нужно очень-очень много задач, столько же, сколько шахматных партий - причем задач, записанных в строго формальном виде.

Математики без особого восторга относятся к записыванию утверждений в строго формальном виде (хотя в последнее время есть определенный прогресс, см. https://www.youtube.com/watch?v=Dp-mQ3HxgDE - Баззард не хуй собачий, а наоборот ученик Ричарда Тейлора, который гипотеза Шимуры-Таниямы-Вейля), а шахматных партий, чтобы стать Бронштейном, Фишером и Талем, надо наиграть реально дохуища; проблема в том, что, как это не дико звучит, математики берут задачи из объективной реальности, в некотором смысле - предпочитая формулировки, которые им почему-либо кажутся интересными, что воспитано физико-арифметической реальностью и традицией.

Насколько близок прорыв в этом направлении - не очень понятно; чуваки про Deep Learning очень хотят сделать девайс, который сможет функционировать не в системе с небольшим простым набором формальных правил (как шахматы), а прямо тут, чтобы нас всех поубивать нахуй - вот звезды DL тут, кажется, об этом тоже говорили https://vimeo.com/390347111; но через какое время у девайса получится нас нахуй поубивать, у них пока оценить не получается; разброс, типа, от 10 лет до 200.

(Ответить) (Уровень выше)


(Читать комментарии) -