昨日は short text note の投稿直後にタイポに気づいたので、Nostr を始めて以来2度目の削除を試してみた。改めて仕様を確認したが、Nostr の性質上しかたないとはいえ、微妙な仕組み。 - relay が NIP-09 (kind:5) を実装しているとは限らない - すでに拡散・キャッシュされているなどの理由からも完全には消えない - kind:5 は ephemeral ではなく、むしろ長期に共有される前提なので、削除を試みたという不細工な痕跡が残り続ける
🔔 This profile hasn't been claimed yet. If this is your Nostr profile, you can claim it.
Edit
昨日は short text note の投稿直後にタイポに気づいたので、Nostr を始めて以来2度目の削除を試してみた。改めて仕様を確認したが、Nostr の性質上しかたないとはいえ、微妙な仕組み。 - relay が NIP-09 (kind:5) を実装しているとは限らない - すでに拡散・キャッシュされているなどの理由からも完全には消えない - kind:5 は ephemeral ではなく、むしろ長期に共有される前提なので、削除を試みたという不細工な痕跡が残り続ける
こっちは理学部なんで半ば他人事だけど、あかんな。 https://mainichi.jp/articles/20251224/k00/00m/040/116000c
Chinese Restaurant Process (CRP) は自然言語処理では失われた技術。ニューラル時代、特に LLM 時代以降に来た人は誰も知らない。 CRP は Dirichlet Process (およびその一般化である Pitman–Yor Process) の逐次的な予測規則に対応する確率過程。 自然言語処理では例えば教師なし単語分割で使われていた。この文脈ではレストランのテーブルが単語ラベル (語彙項目)、客がトークン出現に対応する。
ふと Chinese Restaurant Process (CRP) という命名に文句をつけている人がいるかもなと思って調べたら、一人だけ見つかった。 https://www.tkim.graphics/CRT/Kim_WaPo.pdf 2021年の Washington Post のコラム。内容としては、Chinese Remainder Theorem、Chinese Postman Problem に続く第3の例として CRP が挙げられている。要するに、白人がアジア人を扱うとき、個人を尊重せずに dehumanize してきた、みたいな主張。 著者は Theodore Kim。知らない人だが、名前と見た目から判断するに韓国系で米国育ちっぽい。 計算機科学が本職ということで、CRP の理解は正確。まあ、「正規分布はレイシストだ」みたいなこと言ってる層が CRP に触れる機会は一生ないだろうから、観測できる事例が出てくるとしたら、こういう書き手になるのは自然。 あと、この人、Yale で Critical Computing Initiative という、名前だけでお腹いっぱいなプログラムを率いている。 https://criticalcomputing.yale.edu/
AIの適切な利活用等に向けた知的財産の保護及び透明性に関するプリンシプル・コード(仮称)(案) https://www.kantei.go.jp/jp/singi/titeki2/ai_kentoukai/gijisidai/dai10/shiryo2.pdf やばすぎると話題のこの文書、AI 事業者の定義が広すぎて、個人や大学研究者まで含まれる。 名前からも明らかだが、完全に権利団体の方を向いていて、利用者保護という観点は希薄。 だからだと思うが、ステガノグラフィを規制するような文言 (AI 生成コンテンツを人間が作ったと偽ってはいけない等) はない。
改めて Fisher et al. (2025) の表1を見ると変だ。AI を統制する諸手法について、utility, safety, clarity, fairness, user agency のどれを満たしどれを満たさないかについての著者らの解釈をまとめたもの。fairness を満たして safety を満たさない手法が2つある一方で、その逆 (safety を満たして fairness を満たさない) がひとつもない。 直感的には safety と fairness はしばしば両立しないだけでなく、現実にはたいてい safety 優先で fairness が犠牲にされる。 私は最近「安全性は危険だ」と逆張りっぽく言っている。安全性は広い概念だが、安心を含む。安心は不安要因の排除と直結する。「私を不安にさせるお前は加害者だ」という論理。どう考えても公正性が保てない。 このあたりを突き詰めていけば、Fisher et al. (2025) の議論を突き崩せないだろうか。
History LLMs は、特定の年以前のデータだけで LLM を学習し、その時点の知識でシミュレーションを行う。 https://github.com/DGoettlich/history-llms このアイデア自体はすぐ思いつくものだが、1913年をカットオフにするという決定が驚き。 4Bモデルなら、Chinchilla 則では学習に約80Bトークンが目安。そんなに大量のテキストを確保できるのかと思ったら、フィルタリング前で600Bトークンも確保したという。ヨーロッパは強い。 私はコロナ政策を再検証のためにコロナ前のデータで学習したモデルがほしいと思っているんだけど、自分でやる余力はない。
local relay が動かない問題は Nowser 1.4.1 で解消されているはず。この投稿がうまくいけば。
多言語情報抽出は昔は夢物語だったけど、いまは LLM が普通にやってくれる。最近はポリコレフィルタが緩くなっているのか、やばめの SNS まで拾ってきてくれる。以下は ChatGPT 5.2 Thinking に調べてもらった結果。 フィン語圏でポリコレ圧が弱い場としては、Vauva.fi、Suomi24、Ylilauta などが挙げられる。 Sarah Dzafce のフィン人性を疑う言説はあふれているし、「ポリコレ枠で Miss Finland に選ばれたんでしょ」といった揶揄も観測できる。 Dzafce 本人はコソボの中でもゴラにルーツがあると述べている。ゴラニは南スラブ語を話すムスリム集団なので、Dzafce もムスリマかもしれないと推測するのが自然。しかし、フィン語圏では、彼女の宗教に焦点をあてる言説はなぜか目立たない。 普通のフィン人党の政治家がこの件に乗ってきた動機として、ポリコレを揶揄する意図が透けて見える。ポリコレで守られているはずの移民系マイノリティですらキャンセルされるなら、何でもキャンセルされるだろという論法。
Miss Finland を剥奪されたことで話題の Sarah Dzafce は名前が全然フィン人っぽくないと思ったが、調べると、父親がコソボ出身。 https://yle.fi/a/74-20181486 苗字に付加記号を戻すと Džafče になるらしい。綴りは南スラブ語的だが、語そのものはトルコ語あたりからの借用っぽさがある。Sarah も対応するフィン語形として Saara/Sara があるにもかかわらずあえて選ばれたものだろう。
Computational linguist.