| |||
![]()
|
![]() ![]() |
![]()
ну-ну, покажи мне please бенчмарк на ml-задачах, где xtx даёт такую же производительность, как 3080, которая в 1.5 раза дешевле. я видел бенчмарк полугодовой давности где-то, где после революционного прорыва в драйверах ROCm на диффузии 512x512 xtx аж догоняет 3070. про llama 2 в полутора ссылках пишут, что по слухам у одного чела есть знакомый, который запускал модель на 10B и она была blazingly fast, без ссылок на графики, увы. И общий консенсус что если кому охота поебаться, то очень хороший вариант и полезный для community. Типичное обсуждение: https://www.reddit.com/r/learnmachinele И вот это утверждение, что сейчас все очень быстро меняется, и прекрасные открытые драйвера, я слышу с выхода 7900, то есть уже почти год. Nvidia при этом с десктопа натурально сваливает, она крутит психические деньги с серверных карточек для AI, но альтернативы для любительского ML воткнуть две 4090 сейчас нет и думаю ещё год не будет. Правда, есть вроде до сих пор отличный шанс попалить этот прекрасный девайс из-за уродского подвода питания. Про https://gpuopen.com/learn/wmma_on_r посмотрю, но играть с этим желания нет пока, все же заказывать на Амазоне карточку за сколько она там сейчас, 1000$ с неясными перспективами мне лень Добавить комментарий: |
||||
![]() |
![]() |