Androidスマホの電池の減りが早い
tag: android
今の所、Androidスマホのバッテリー消費トップはモバイルネットワークスタンバイ。
検索してみたら、4Gとか基地局の電波のつかみが悪いとこうなるらしい。
twitter通知, NHKニュース防災通知、ガジェットなどを停止しまくった結果iPhone側はそんなに電池が減らなくなってきたのだがAndroidスマホは使っていないのに1日でバッテリー半分まで減る。
Docomo の 4G 電波が弱くなったのかな? 4Gから5Gアンテナに建て替えてるからだろうけど、困ったものだ。
【推しの子】
tag: anime
ゲッター線を浴びたので推しの子見てる。
アイドル物はあまり見ないんだけどこれは転生と復讐劇が混ざっているので男子諸君も見れる、かも。
原作は少女漫画レーベルかな?と思ったがヤングジャンプだったw ヤングジャンプは時々婦女子向けのマンガを連載するので不思議ではないらしい。 なお現在も連載中。
1話がちょっとキツいんだけどゲッター線を浴びた後なので耐えられた。(FX戦士の漫画レベルまでやられると1話で折れる)
今後の話の展開は普通のアイドルものに収束していく...のかと思いきや真犯人絶対殺すマン路線を取りつつスターに駆け上がる途中らしい。
p.s. 5/26
6話が重くて7話で解決しつつ新展開。 まるでジェットコースター。
いろいろな方向にギリギリ攻めて作ってあるセンシティブな話ではある。
角川 ASCII BOOKS の PDF本ダウンロードサービス
角川アスキー総合研究所のKindle本を購入したら巻末にPDF版無料ダウンロードのご案内があった。
対象書籍の各ページにはトランプ記号がランダムに記述されていて 上のダウンロードページでは、xxxページに印刷されている記号は何?を4回答えるとPDF版をダウンロードできるしくみ。
これは良いかも。
最近はPDF版を売っている技術評論社/オライリーの本ばかり買ってたけどこういうやり方もあるんだな。
RTX 4060 Ti がなんか微妙そうなので RTX 3060 12GB を確保
ふーん。。。消費電力が150Wを下回っているのは好みだけど3060 Tiと比べると性能はイマイチか?
グラボ業界にあるリネーム品ほどじゃないけど4060系の性能は微妙で値段だけ上がった様子。
とりあえず生産停止になった nVidia GeForce RTX 3060 12GB をポチって保護しておく。 しばらくこれで耐えよう。
Radeon系列が Stable Diffusion お絵描き用途では壊滅的なのでGeForce 1強。競争が働かないんだよな。困ったものだ。
tag: vagrant
vagrant 2.3.5 だと vagrant up 時に以下のようなエラーが出る。
vagrant/util/file_mutex.rb:27:in `delete': Permission denied
バグレポートは以下。
vagrant 2.3.6 では修正されていて、起動するようになった。
ただ、vagrant up , vagrant halt でパスワードを要求されるようになったんだけど、なんだろこれ。 → vagrant 2.3.7 では修正された。パスワードなしで起動する。
ASUSTek GeForce RTX 3060 12G PH-RTX3060-12G-V2 装着
tag: vermeer, geforce
ポチった RTX 3060 が届いたので早速装着。
さて、stable diffusion 向けの環境を作らねば。
設定手順が結構めんどいw
nVidiaのドライバとかnVidiaのライブラリとかMicrosoftのC++コンパイラのバイナリはライセンスの関係で自動インストールできないからこうなるのか。
pytorch for CUDA 11.8 + diffusers 環境を作る。
tag: cuda11.8, cuda, pytorch, diffusers
以下を見ながら設定した。感謝感謝。
以下自分向けの手順。
python -m venv venv .\venv\Scripts\Activate.ps1
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
pip install git+https://github.com/huggingface/diffusers.git transformers accelerate OmegaConf pytorch-lightning tensorboard ftfy scipy sentencepiece safetensors
$env:PYTORCH_CUDA_ALLOC_CONF = "garbage_collection_threshold:0.6, max_split_size_mb:128"
自作のmain.pyを実行。deviceはcuda指定。
544x768ピクセル画像が30秒程度でできた。
CPUだと1100秒くらいかかるので36倍速。 これは圧倒的だ。
使用しているモデルはCPU演算で使っていたものをそのまま使っているのでfp32のもの。 fp16にすればさらに高速化が期待できる。
演算器が大量に載っていて専用GRAMメモリとのメモリ帯域も太い専用ハードウェアの威力凄い。
p.s.
automatic1111 stable-diffusion-webui は Cドライブにインストールすれば動作した。 512x512 の生成と 2倍 upscale あわせて 30秒程度、 544x768 の生成と 2倍 upscale あわせて 65秒程度。
upscale時に1088x1536を処理させるとGRAMが不足して速度がガクっと落ちる感ある。 upscale 1024x1024処理はそれほど時間はかからないのだけど。