Войти в систему

Home
    - Создать дневник
    - Написать в дневник
       - Подробный режим

LJ.Rossia.org
    - Новости сайта
    - Общие настройки
    - Sitemap
    - Оплата
    - ljr-fif

Редактировать...
    - Настройки
    - Список друзей
    - Дневник
    - Картинки
    - Пароль
    - Вид дневника

Сообщества

Настроить S2

Помощь
    - Забыли пароль?
    - FAQ
    - Тех. поддержка



Пишет nancygold ([info]nancygold)
@ 2024-07-24 19:18:00


Previous Entry  Add to memories!  Tell a Friend!  Next Entry
Настроение: amused
Entry tags:computing

"The Desktop Window Manager process has exited."
Ok. The hashtable thing ChatGPT recommended wasn't as effective (albeit faster than roaring bitmap) and in fact taught me the hard way that running out of memory on Windows 11 tends to crash the display manager, which wont restart automatically and there is nothing one can do to restart it. 1/10. don't recommend.

Have to proceed with my naive solution.

BTW, that roaring bitmaps is apparently used by serious businesses, which do analytics on trillions of entities (i.e. user clicked this button event at second T), so it is slow, but compresses a terabyte dataset into a 128mb one, allowing to perform otherwise impossible computation on a phone:
https://vikramoberoi.com/posts/using-bitmaps-to-run-interactive-retention-analyses-over-billions-of-events-for-less-than-100-mo/

I think I can implement something comparable by compressing the currently unused bitmaps regions.



(Добавить комментарий)


(Анонимно)
2024-07-24 19:40 (ссылка)
proceed nahuj

(Ответить)


(Анонимно)
2024-07-24 20:58 (ссылка)
>that running out of memory on Windows 11 tends to crash the display manager, which wont restart automatically and there is nothing one can do to restart it.

Amazing. When I had 16GB, linux OOM Killer usually killed my chrome. Not once it killed compositor/wm. Now with 64GB and a swap partition (I wrongly assumed it would be better without swap) I haven't experienced an OOM event yet.

>running out of memory on Windows 11

What happened to windows swap file that grew automatically?

(Ответить) (Ветвь дискуссии)


[info]nancygold
2024-07-24 21:53 (ссылка)
I've turned it off just in case, since it also tends to crash OSes.
Especially when coupled with hibernation.
Less code functionality = less chances of crash.

(Ответить) (Уровень выше) (Ветвь дискуссии)


(Анонимно)
2024-07-24 22:03 (ссылка)
Modern OSs are not designed to work without swap sadly. I learned it in linux the hard way -- without swap effective memory consumption increases due to the way overcommit (which is regular programming practice) is handled without swap https://en.wikipedia.org/wiki/Memory_overcommitment . Windows is similar.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]nancygold
2024-07-25 01:43 (ссылка)
In any case, the more features one disables, the less chances one will get issues.
For example, forgetting to disable both bitlocker and windows update leads to a guaranteed loss of all your data.
https://www.bleepingcomputer.com/news/microsoft/windows-july-security-updates-send-pcs-into-bitlocker-recovery/

unless you saved the bitlocker key, which nobody knows how to do.

(Ответить) (Уровень выше) (Ветвь дискуссии)

Using corporate crap is self-abuse.
(Анонимно)
2024-07-25 03:43 (ссылка)
>forgetting to disable both bitlocker and windows update

You know the anon's preferred solution to that issue: a)don't use windows. Use linux with at least 2-3 months of stabilization b) do regular zfs snapshot backups.

(Ответить) (Уровень выше)


[info]necax
2024-07-25 03:44 (ссылка)
https://www.askwoody.com/ms-defcon-system/

(Ответить) (Уровень выше)


(Анонимно)
2024-07-24 22:07 (ссылка)
In addition, almost no application is designed to handle allocation failure gracefully.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]nancygold
2024-07-25 01:41 (ссылка)
Windowing manager should have priority over resources. If it wants some resource in limited supply, kernel should genocide some niggers and take their resources.

(Ответить) (Уровень выше) (Ветвь дискуссии)


(Анонимно)
2024-07-25 07:48 (ссылка)
>kernel should genocide

You are incorrigible. Even hormones don't help much with this.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]nancygold
2024-07-25 10:42 (ссылка)
Memory is overpopulated. There is no better solution.

(Ответить) (Уровень выше)


[info]necax
2024-07-24 22:25 (ссылка)
Шиндошс не так работает же, синхронно управляет только существующим пулом страниц, а если потребуется увеличить файлы подкачки, то ты получишь отлуп и растить файлы будет асинхронно же.

(Ответить) (Уровень выше)


(Анонимно)
2024-07-25 04:58 (ссылка)
https://www.reddit.com/r/ChatGPT/comments/1eauziv/what_do_yall_think_of_this_gpt_4o_mini_at_second/

Оказывается mini ничем не хуже других. Притом бесплатен.

(Ответить) (Ветвь дискуссии)


(Анонимно)
2024-07-25 05:07 (ссылка)
Гамном задроченнога киевскога педераца кормят постоянно, кстате, отчего он дико апсераецо, грозицо страшными караме, потом утирает вафло со своего рта и уползает обратна подшконку.

(Ответить) (Уровень выше)


(Анонимно)
2024-07-25 05:50 (ссылка)
what_do_yall_think

(Ответить) (Ветвь дискуссии)


(Анонимно)
2024-07-25 06:21 (ссылка)
но ведь додег - это твой папа

(Ответить) (Уровень выше)


(Анонимно)
2024-07-25 07:51 (ссылка)
Btw, new large openweights models have released

llama 405b https://www.llama2.ai/

Mistral Large 2 https://chat.mistral.ai/chat

В мой комп не влезут даже в квантизированном виде. Sadge.

(Ответить) (Ветвь дискуссии)


[info]nancygold
2024-07-25 10:54 (ссылка)
I think these require server with 8 special graphic cards.
You can rent such a server, but paying for ChatGPT will be cheaper, unless you utilize it 24/7
Or you don't want OpenAI to mine your data.

(Ответить) (Уровень выше) (Ветвь дискуссии)


(Анонимно)
2024-07-25 11:08 (ссылка)
Мистрал кстати идет на одной H100, там писали...
Qно это все равно роскошь. Дешевле юзать API.

Например у mini API стоит копейки вообще.

(Ответить) (Уровень выше)


(Анонимно)
2024-07-26 00:08 (ссылка)
запустил лоботомированную (в Q3_K квантизации) Mistral-Large-Instruct-2407 на 64 гигах и одной 4090.

1.23 tokens per second

Юзать можно, но после нелоботомированной llama-405b как-то не очень. Ну и медленно.

(Ответить) (Уровень выше) (Ветвь дискуссии)


(Анонимно)
2024-07-26 11:02 (ссылка)
Уфф, ты богатый!
А мог бы юрке на 10 дронов задонатить.

(Ответить) (Уровень выше)


(Анонимно)
2024-07-25 11:06 (ссылка)
Разница большая? Что на счет цензуры и фильтров?

Мистрал требует аккаунт. Поэтому даже не тестил.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]nancygold
2024-07-25 11:44 (ссылка)
The larger the model, the more digits of Pi it can recite.
Diminishing returns, but important for engineering and programming tasks.
Also,
https://www.reddit.com/r/LocalLLaMA/comments/17arxur/single_digit_tokenization_improves_llm_math/

(Ответить) (Уровень выше)


[info]necax
2024-07-25 16:59 (ссылка)
Ура, новая поебень на питоне!

(Ответить) (Уровень выше)