sab123: (Default)
SB ([personal profile] sab123) wrote2025-12-19 09:44 am

и вот опять подтвердилось

https://notthebee.com/article/fulton-county-georgia-admits-they-illegally-certified-315000-ballots-in-2020-election

Это место, где вытаскивали ящики с бюллютенями из-под стола.

"Essentially, Fulton County had certified 315,000 "early" votes without signing off on the vote tabulation tapes, which are "critical to the certification process." Georgia law requires poll workers to sign these tabulation tapes at the end of each election day.

For context, Joe Biden won Georgia by less than 12,000 votes. Georgia has 16 electoral votes, and Biden won the Electoral College 306-232."

Ну, конечно одной Джорджии бы не хватило, но явно процесс шел не только в Джорджии. Напомню, что Джулиани и других преследовали и все еще пытаются пресследовать за расследование этого самого.
sab123: (Default)
SB ([personal profile] sab123) wrote2025-12-18 08:56 pm

новшества военных дронов

https://dumskaya.net/news/shahedy-stanovyatsya-opasnee-nesut-rakety-miny-i-189729/

- дроны-перехватчики
- средства борьбы с перехватчиками
- улучшенный обзор, не только вперед, но и назад
- mesh networking с прозрачной ретрансляцией через промежуточные узлы для управления на большом расстоянии
- групповая тактика применения с разделением на разведчиков, ретрансляторов, и штурмовиков
- охота на самолеты и вертолеты ракетами воздух-воздух
- возможно все это предполагает управление дроном не одинм пилотом, а экипажем из пилота и стрелка
- возможно следующим шагом будет перевозка вертолетных дронов на самолетных (мини-авиаматки) - а как насчет запуска дронов с самолетов-вертолетов-крылатых ракет?
sab123: (Default)
SB ([personal profile] sab123) wrote2025-12-18 11:34 am

царь-экраноплан как символ коммунизма

из https://pargentum.dreamwidth.org/4566947.html



- Это один из символов Дербента - ракетный корабль-экраноплан проекта 903 «Лунь» - памятник великой стране, которую мы пролюбили.
- Угу, хороший памятник. Ржавая облезлая НЕХ с ракетными шахтами, пришедшая в нынешнее состояние после того, как испытания были провалены а деньги на доработку кончились.



Действительно, с этим экранопланом прям как с коммунизмом: полный провал на практике совершенно не влияет на веру верующих в него.

P.S. половина сабжа взята из коммента
sab123: (Default)
SB ([personal profile] sab123) wrote2025-12-17 05:21 pm

рога

К десктопному компьютеру идет антенна вайфая в виде ромбика. Но если предыдущий экземпляр был просто ромбиком, то у нового можно две грани повернуть, и превратить в "рога" согласно пиктограммной инструкции на заду антенны. Но, как оказалось, если так сделать, то сила сигнала падает вдвое и соединение делается очень неустойчивым. Спрашивается, с какой целью тогда оно вообще сделано?
sab123: (Default)
SB ([personal profile] sab123) wrote2025-12-17 05:13 pm
Entry tags:

реселлеры

Заказал некую штуковину с вебсайта. Внезапно, помимо подтверждения с этого вебсайта, приходит уведомление об отправке с другого вебсайта (не производителя штуковины, а тоже торговца, и нет, не Амазона). То есть, видимо, первый сайт является реселлером от второго. Но если пойти прямо на второй сайт (а я там тоже смотрел, когда искал штуковину), то там цена дороже на 50 долларов. У реселлера выходит выгоднее, за около половины от MSRP.
sab123: (Default)
SB ([personal profile] sab123) wrote2025-12-12 01:50 am

сказка о мудаках

https://vad-nes.livejournal.com/861337.html?thread=32994201#t32994201

vad_nes написал про муми-троллей. Я их пытался читать в детстве, когда их пчатали в "Веселых картинках" (или "Мурзилке"), и вообще не смог — муть мутью. Потом попробовал недавно уже в очень взрослом возрасте — и опять оказалась муть мутью, бросил. Какая-то невероятная чушь ни о чем. Как это можно читать — я не понимаю. Но тут из дальнешей беседы нашлось интересное.

Кто-то положил рядом ссылку на рассказ https://vseskazki.su/janson-tuve/strashnaya-istoriya.html . Я почитал - муть, но не совсем такая муть, как мне запомнилась. Похоже, что я в недавние времена начал с _особо_ неудачной первой книги. Но эта муть меня подвинула подумать о том, что именно в этой мути особо неприятно.

У меня с очень раннего детства есть понимание разделения на сказочное и реальное. В сказки можно играть, но реальностью они не становятся, они из другого мира. Как на утреннике в детсаду "мальчики зайчики, девочки снежинки" мальчики только играют в зайчиков, то и в Деда Мороза со Снегурочкой тоже только играют взрослые. Поэтому Дед Мороз у меня с очень раннего возраста классифицировался как сказочный персонаж, нереальный. У меня есть семейная история о том, как дядина невеста долго думала, что меня зовут Миша, потому что я играл в медведя из сказки и всем представлялся "Михайло Спиридоныч", но сам я всегда знал, что это только игра (дай такое нынче апологетам транссексуальности! мигом запишут в квадроберов - кстати, что это за уникальные для России детские фурри?).

Так вот, в рассказе персонажи очень мутно постоянно путают игру с реальностью, и это меня очень раздражает, а автора видимо наоборот развлекает, как в другом комменте кто-то их назвал, "богемные". Не говоря уже о том, что они все ужасно говнистые характером, постоянно пытаются кого-то надурить, и вызывают у меня отвращение прям как персонажи Seinfield'а или Friends.

И в итоге я нашел правильное слово: мудаки. Они - му-даки. Мудацкие сказки о мудаках.
sab123: (Default)
SB ([personal profile] sab123) wrote2025-12-09 11:52 pm

brown-out

Узнал нынче на практике неожиданное: в компьютерах Lenovo P620 если воткнуть плату Wi-Fi в верхний слот, то она вызывает просадку напряжения и перезагружает компьютер. Причем в ней еще есть второй дополнительный разъем питания, к которому идет внешний провод, но нет, жрет и из PCIe (или что там сейчас?), и видимо питание верхней платы разведено где-то рядом с процессором и памятью, и видимо как-то нестарательно. Начинаешь качать пакеты для установки, компьютер валится. При перетыкании вниз эффект пропадает. Зачем вайфаю столько электричества - непонятно. И это не мой конкретный компьютер, а повсеместный глюк, ITшники его моментально распознали, видимо к ним постоянно с ним приходят (почему их другой отдел так собирает компьютеры с платой в нехорошей позиции - отдельный вопрос).
sab123: (Default)
SB ([personal profile] sab123) wrote2025-12-09 11:42 pm
Entry tags:

подменили пертусин?

Американская газировка рут бир имеет странный, и обычно пугающий европейцев вкус. Но в детстве было лекарство пертус(с)ин - сироп от кашля с подобным вкусом, которое мы классе в четвертом покупали и пили за ради вкуса.

А тут зашел разговор, и человек из России говорит, что пертусин совсем не похож. У меня, конечно, нет под рукой пертусина для сравнения, и с тех пор прошло много лет, но мне кажется, что вкус очень даже похож. Впрочем, похоже, что сейчас пертусин стал не тот. Я сейчас поискал, и в содержимом выдает экстракт чабреца. Вкус чабреца я знаю, заваривал из него в детстве чай, совсем другой, чем у пертусина в детстве. В детстве, мне кажется в нем было что-то типа корня солодки — и правда, про него википедия выдает отхаркивающее действие.

Сейчас посмотрел, корни в рут бире — исторически сассафрас или сарсапарилла (или в наши времена их имитация). Они к солодке биологического отношения не имеют. Но солодка родственна лакрице, а про те корни пишут, что у них вкус похож на лакрицу. В-общем, похоже, что это примерно лакричный вкус. И таки да, есть бренды рут бира, которые прямо кладут лакрицу.
sab123: (Default)
SB ([personal profile] sab123) wrote2025-12-07 11:24 pm

эквивалентность Байеса и линейной регрессии, по-русски

Из https://ivanov-petrov.livejournal.com/2618194.html?thread=287054674#t287054674 (английская версия в https://babkin-cep.blogspot.com/2017/06/neuron-in-bayesian-terms-part-2.html и там есть еще части):

Линейная регрессия — функция вида

y = w[0]*x[0] + ... + w[n]*x[n] + b

в которой x[i] — входные данные, и натренировываются веса w[i] и b, чтобы для каждой комбинации иксов в тренировочном наборе получился игрек близкий к игреку из тренировочного набора для этих иксов.

У Байеса если мы прилагаем последовательность независимых событий E[i], то вероятность гипотезы после обнаружения, что событие произошло, вычисляется как:

P(H) = P0(H) * P(E[i]|H) / P(E[i])

а если не произошло, то

P(H) = P0(H) * P(~E[i]|H) / P(~E[i])

где P0(H) - предыдущая вычисленная вероятность гипотезы, начиная последовательность вычислений с некоей действиельно априорной.

Заметем пока отрицательный случай под ковер, поскольку он симметричный. Для всей последовательности произошедших событий формула будет:

P(H) = P0(H) * product( P(E[i]|H) / P(E[i]) )

Теперь возьмем вместо вероятностей шансы, т.е. в форме типа "даю один к трем":

Шанс(H) = P(H) / P(~H) = P(H) / (1 - P(H))

Байесова формула преобразовывается:

Шанс(H) = P(H) / P(~H)
= ( P0(H) * product( P(E[i]|H) / P(E[i]) ) ) / (P0(~H) * product( P(E[i]|~H) / P(E[i]) ) )
= (P0(H)/P0(~H)) * product( P(E[i]|H) / P(E[i]|~H) )

Для простоты пока что заметем (P0(H)/P0(~H)) под ковер (если обе равновероятны, результат деления будет 1). Зато вынем из-под ковра отрицательный случай:

Шанс(H) = product(
if (E is true) {
P(E[i]|H) / P(E[i]|~H)
} else {
P(~E[i]|H) / P(~E[i]|~H)
}
)

События тут симметричные "этот аргумент совпадает с результатом в тренировке":

P(E[i]|H) = P(y == x[i])
P(E[i]|~H) = P(y != x[i])
P(~E[i]|H) = P(y != x[i])
P(~E[i]|~H) = P(y == x[i])

то есть, P(y==x[i]) будет буквально количество тренировочных примеров, где i-й аргумент совпадает с результатом, поделенное на количество всех тренировочных примеров. Отсюда

P(E|H) = P(~E|~H)
P(E|~H) = P(~E|H)

И используя общие свойства

P(E|H) = 1 - P(~E|H)
P(E|H~) = 1 - P(~E|~H)

получаем

P(E|~H) = P(~E|H) = 1 - P(E|H)

Шанс(H) = product(
if (E is true) {
P(E[i]|H) / (1 - P(E[i]|H))
} else {
(1 - P(E[i]|H)) / P(E[i]|H)
}
)

Ветки if у нас делят вероятности в противоположную друг другу сторону. Теперь возьмем представление, где x[i] у нас представляет истину как 1, а ложь как -1. Тогда можно if заменить на возведение в степень x[i]:

Шанс(H) = product( ( P(E[i]|H) / (1 - P(E[i]|H)) )^x[i] )

а штука, которую мы возводим в степень — это Шанс(E[i]|H) = P(E[i]|H) / (1 - P(E[i]|H)), то есть

Шанс(H) = product( Шанс(E[i]|H)^x[i] )

Теперь возьмем отсюда логарифм (логарифмы положительных значений шансов, заметим, могут быть положительными и отрицательными - положительными если шансы в пользу события, симетрично отрицательными если шансы против события), умножение заменится сложением, возведение в степень заменится умножением:

ln(Шанс(H)) = sum( ln(Шанс(E[i]|H)) * x[i] )

Получили формулу линейной регрессии, где w[i] = ln(Шанс(E[i]|H)). Теперь вынем из-под ковра множитель (P0(H)/P0(~H)). Он представляет собой априорный Шанс0(H), вставим его назад в формулу:

ln(Шанс(H)) = sum( ln(Шанс(E[i]|H)) * x[i] ) + ln(Шанс0(H))

То есть дополнительное слагаемое b = ln(Шанс0(H)) представляет собой коррекцию на априорный шанс.

Формула Байеса, подсчитываемая последовательно для многих событий, предполагает, что эти события независимые. Но может оказаться, например, что у нас всегда для некоторых i и j будет x[i] = x[j], то есть одно и то же значение всегда дублируется, два события полностью зависимые. Если тупо идти по Байесу, игнорируя зависимость, то независимый учет этих двух иксов приведет к тому, что вероятность сдвинется в неправильную сторону. Но если мы посмотрим на формулу линейной регресии, то там делается легко видно, что чтобы получить правильный учет, нам надо иметь (w[i] + w[j]) = ln(Шанс(x[i])), и любая комбинация этих двух весов, удовлетворяющая этой сумме, эквивалентна. К счастью, градиентный спуск умеет это более-менее прочухивать автоматически, как и частичные зависимости.