延期していたカイロスは先ほど13日の同時刻に再設定されたようです。
【速報】民間ロケット「カイロス」再打ち上げはあさって13日午前(MBSニュース) - Yahoo!ニュース
※体裁がおかしい、計算しても真っ白になる場合は、古いキャッシュが残っているなどで
CSSの読み込み、または、スクリプトエラーが出ている可能性がありますので、
一度再読み込み(キャッシュクリアかCtrl+F5)してください。
]]>
先週発売されたLibero Flip
Motoユーザーだとデフォでカバーが付いてくるので、
その感覚でいたら、
カバーが付いていない。
でも、カバーをキャンペーンでもらえる券は付いていたので、
早速見て見たが、正直どれもいいのがない。
ほんと普通に無色透明のカバーでいいのに・・・
とりあえず、もらえるものはポチっておこうと
目を皿にして、検索しづらいサイトから、まぁこれでいいかというのを選んでポチったまではよかったが、
これではいつ届くか分からない。
だったら、moto g52とサイズ同じなので、
ストレートのまま使い続けるか・・・
いや、せっかくパカパカできるのに、
もったいない。
g52のカバー自体、先日g100を落とした教訓から
デフォではなく、バンパー付きを買って余っているので、
サイズも同じだし、それを加工しようかと思ったが、
万が一のこともあるので、
100均でiPhoneのスマホケースを買ってきた。
一応買う前に量販店のデモカバーを試して、
iPhone Maxのがちょうど良いサイズかなと思ったが、
100均にMaxのがなかったので、
少しガバガバなPlusのバンパー付きを買ってみた。
多少ガバガバなので、
カバー自体両面テープで固定する必要があるのだが、
Flipの表面にテープを貼り付けると滑る滑る
全く貼り付こうとしてくれない。
どんだけツルッツルに加工された表面だ!
仕方がないので、サイドなら両面テープが貼り付けられるので、
そちらでカバーを固定してこんな感じになった。
縦の長さがiPhoneよりも長いため、
折る部分が不格好になってはいるが、
まぁカバーが届くまでのしのぎにはなりそうである。
ただ、届くカバーもそうなのだが、
折りたたみスマホの欠点は
折りたたむところが無防備になってしまう点だろう。
折りたたんでいる時に落としたら最悪である。
]]>
古いソースをいじっていたらこんなメッセージが
一部の NuGet パッケージが現在のターゲット フレームワークとは異なるターゲット フレームワークを使用してインストールされていて、
再インストールが必要になる可能性があります。
詳細については、https://docs.nuget.org/docs/workflows/reinstalling-packages を参照してください。
影響を受けるパッケージ: System.ValueTuple
古いソースなので、サポート切れの.Netをサポートしている.Netなどに切り替えた影響だろう。
とりあえず、該当のパッケージとそれに依存するパッケージ
今回は System.ValueTuple とそれを使っている System.Text.Json を一度アンインストールして、
もう一度 System.Text.Json をインストール(System.ValueTupleはバージョンにあったものを勝手に追加してくれる)
で警告が消えました。
]]>
なんか、先月スマホを落として〜なんて記事を書いたばかりな気がしますが
なぜだろう、新しいスマホが手元にある・・・
事の発端は、
チキンさん 「あのパカパカするスマホほしい」
キリンさん 「15万くらいするけど、何に使うの?」
チキンさん 「アマプラ、ネトフリ etc をくの字にして鑑賞」
キリンさん 「15万もするスマホでそれ? CM見たいに動画とか撮らないでしょ」
チキンさん 「うん、でもパカパカするじゃん」
キリンさん 「・・・」
というやり取りをこの1年くらいやっていたのだが、
キリンさん 「Y!から6万のパカパカスマホ出るよ」
チキンさん 「!! 買おう!」
という流れで、
Y!moobileから発売された、
クラムシェル型、いわゆる折りたためるスマホがここにある。
ちなみに、ネットで購入すると一括一択で、
例によって先日買ったばかりで財布がさみしいので、
分割できる店舗で予約したのだが、
発売日に入荷しておらずで、
ヨドバシに聞いたら、少数ですが入っていますよ
ということで、予約キャンセルして、ヨドバシに駆け込んだ次第である。
さて、レビューとかは昨日発売されて
あちこちに上がっていると思うので、ある程度は他力ちゃんとして、
自分が気になった点
●背面の着信
他社のを触ったことがないのでなんとも評価できないが、
背面(折りたたんだときのメイン画面)の
着信がどんな感じかというと、
ホーム画面の上の方に小さく通知アイコンが表示される感じだ
何のアプリからの通知かは開くまで分からない。
また、その他はほぼ使わないような機能ばかりで
正直背面を充実させたいならmoto や Samsungを選んだ方が良いと思う。
●通知されないことがある?
メールや電話、LINEなどは上のように背面画面でも通知されるが、
アプリによっては通知設定をONにしていても全く通知アイコンが表示されないことがある。
画面オープンでも通知されないので、
おそらくアプリ側かシステム通知の設定をいろいろいじったせいかもしれないが、
場合によって通知アイコンが出ないことがあるので、注意だ
→もしかするとサイレントモードの可能性、
現在検証中→サイレントな設定ではなさそう。
どこをいじったのかが覚えていないので、あとは初期かかな・・・
●背面保護
正直背面が出っ張っているので、
絶対割りそう
保護フィルム買った方がよい。
●大きさ
大きさはmoto g52とほぼおなじ
なので、g52のスマホケースにそのまま収まる
現在キャンペーンをしているFlipのスマホケースが届くまでは、
パカパカすることができないが、
同サイズのスマホケースでしのぐとよいだろう
→カバーが届かないので、暫定的に作ってみた
●保護フィルム
あと、一応保護フィルム(仮)が既に付いているので、
特に買う必要はないが、
気になる場合は、折りたたみ用のフィルムを買うと良いだろう
背面の丸いところは全くないので、
落とす前に是非とも購入しておきたい
●保護カバー
Libero Flip 購入特典でもらえるが、
慢性的な遅延でいつ届くか分からないので、
代用品(上のようにmoto g52がサイズ同じ)か、
自分で加工して作るかしないとカバー自体が販売されていないので、
しばらくは落とさないような方法でしのぐしかない
それと、カバー買っても、
折りたたむ部分は保護されていないので、
折りたたんだ状態での落下は注意が必要である。
●他機種からの乗換の場合
私は10年くらいMotoに慣れすぎてしまったので、
ジェスチャーが使えないのが残念
一応背面ライトの点灯ジェスチャーは同じなのだが、
ライトが付いている上部画面の方をフリフリしないと点灯しない
(スマホ真ん中、それより下では加速度センサーが働かないようだ)
というかフリフリすると画面がパカパカするので、注意
●誤タッチ
ちょうど画面の曲がるあたり、
どうしても凹みがあるため、
スクロールしているつもりが、
一瞬指が宙に浮くのか、タッチとして認識されるようで、
そういったときにくだらない広告とかリンクがあると
遷移してしまうので注意が必要だ
ディスプレイ自体も通常よりもペラい(押すと凹む)ので、
そういった影響もありそう。
使い勝手なところは今後も追記していこうと思うが、
そもそもなんで安いのかを考えてみると、
まず、容量が128GでSDなどで拡張できない(最近は容量増えてクラウドに上げるとしても128では心許ない)
バンド帯でY!しか使わないところに絞っている?
くらいしか思いつかない
逆にSD7(型落ち)でメモリ6G、FeliCaも付いていてデュアルsim対応と逆にメリットの方が多く、
普段使いなら十分なスペックと言えるので、
折りたたみスマホの黒船のような存在と言っても良い
というか、motoを買うつもりが、
機能と用途のバランス考えると
12万〜はどう考えても高過ぎと見てしまうので、
そんな中、こんなのを出されたら
自分のようにお試しで黒船に乗船してしまう人も中にはいるかと思うくらい
コスパが良い
やるなY!
ということで、
今年は各社からパカパカスマホがでるような記事が毎週出てきているので、
目移りしそうだが、この価格帯で投入されたので、
さらにスペック、価格など激化しそうである。
ちなみに、motoユーザーだと
やっぱり使い慣れた機能が使えないので、
同じ位の価格帯で出てくれたらそっちに戻ってしまうかもしれないかな。
]]>
MacやChromeBookを使っている人なら、
ああそれね、みたいな感じで分かるかと思うが、
根っからのWinユーザーだと困ることがある。
Deleteキーがない
今回はWindows用のキーボードなのに、
Deleteキーがないキーボードの話
チキンさん 「ねえ、このキーボードDelキーがないんだけど、どうすればよい?」
キリンさん 「いや普通あるでしょ」
チキンさん 「ほら見てどこにもない」
キリンさん 「!! ホントだ」
チキンさん 「で、どうすればDelキーが使える?」
ということで、チキンさんが在庫処分で買ってきた
BT21のキーボード(RKB-BT21)
見た目Windows用っぽい感じなのに、
よく見るとMac仕様?なキーボードなので、
Delキーが付いていない感じなのである。
ということで、自分がMacやChromeでDelっぽいことをやるときの操作を思い出しながら、
キリンさん 「例えば、Fn 押しながら BackSpace(BS) は反応する?」
チキンさん 「!! Delっぽい動きした!」
ということで、BT21のキーボードでDelっぽい操作をするときは、
右上のFnキー と BSキー を同時に押す
で解決するようです。
ダメそうなら、
Ctrl + BS
Shift + BS
Alt + BS
Ctrl + D
辺りをやってみるとよいかも。
]]>
先日ロケット打ち上げを見に行った際、
うっかりして256Gのメモリが満タンになっており、
なんとか古いのを消しまくって事なきを得たのだが、
さすがに消した以外のデータを消すのもあれだし、
当時2万くらいした256も今や3000円で買えるので、
256Gを買ってみた。
と思ったのだが、512もずいぶん安くなっているので、
ダメモトで512Gを買ってみた。
とりあえず、挿して見たら、普通に認識されたて撮影も録画もできた。
そして、フォーマットして再度撮影しても問題なく書き込んでいる感じである。
それと、前回よりちょっぴりいつもより良いのを買ったおかげなのか、
180枚くらい連写しまくっても全く速度が落ちることがなかった。
ちなみに、前回と同じProなしのSDカードだと、90枚くらいなので、
SanDisk Extreme Proにするだけで2倍書き込みが早くなる感じだ。
ちなみに、さらに上位でV60というのを試したら、
なぜか90枚くらいで一瞬速度が落ち、
130枚くらいで切れが悪くなったので、
FZ1000には上のProでV30が最適なのかもしれない。
取り出してPCに繋げると、512Gフルでフォーマットされているので、
基本的にFZ1000で512Gは問題なく使えるようだ。
なお、覚えていないが、
メーカー最大容量はたしか128Gだったと思うので、
使えるかどうかは自己責任となります。
最近電池入れ替え時の時刻合わせが希に発生することがあるが、
まだまだ現役で活躍できる名機種ですね。
]]>
お待ちかね?
KML版も投稿しておきます。
なお、1段目の予想軌道のみですm(_ _)m
エクスポートは過去の記事で
注意
これらの軌道は個人的に手計算して作成したものです。
実際の飛行ルートと完全に一致するものではありません。
また、独自作成ですので、もちろんspace one等とは一切関係はありません。
当記事や関連記事へのご質問等は受け付けませんので、よろしくお願いします。
関連投稿
]]>
まぁ安くなるかもって話ではありますが、
自分は返って高くなるようです。M木さん
ちなみに、自分がYをやめられないのは、
唯一写真バックアップし放題というオプションが付いているから
ってところでしょうか。
つまりYのプレミアム500円分が付いているので、
Yは自分としてはお得
本音は4G動画もアップできればいいのですけど、
制限が付いてしまったので、上げられなくなってしまったところでしょうか。
現時点で2GMaxというのでも十分ではありますが。
楽天 三木谷氏「携帯料金払いすぎてないですか?」と楽天モバイルのシミュレーションを呼びかけ
]]>
さて、カイロスロケットですが、
おそらく東京からでも頑張れば見える可能性があります。
御前崎から見たH-IIAの様子
種子島から御前崎まで800キロ
串本から東京までは450キロと半分くらいの距離
SRBは80kmくらいまで飛びますが、
イプシロンとおなじくらいならカイロスは60kmくらいと考えて計算すると
スカイツリーからならおよそ5度程度と計算されます。
ちなみに、スカイツリーから見た富士山は1度より少し低い位置なので、
つまり、当日がものすごくクリアで快晴ならば、
東京からでもちょっろっと見える可能性がありそうです。
しーた朗を使ったイメージ図
※しーた朗はおよそ70kmまでを赤色で描くようにしています。
自分のところから見えるかもチェックはしーた朗で
※体裁がおかしい、計算しても真っ白になる場合は、古いキャッシュが残っているなどで
CSSの読み込み、または、スクリプトエラーが出ている可能性がありますので、
一度再読み込み(キャッシュクリアかCtrl+F5)してください。
注意
これらの軌道は個人的に手計算して作成したものです。
実際の飛行ルートと完全に一致するものではありません。
また、独自作成ですので、もちろんspace one等とは一切関係はありません。
当記事や関連記事へのご質問等は受け付けませんので、よろしくお願いします。
関連投稿
]]>
もう3年になりますか、21年に打ち上げイベントでビームを放った感じと、
※コロナ真っ只中でしたが、ちょうど近隣で仕事をしていたもので
とりあえずイプシロンと同じような感じならどんなかな?
という想像から打ち上げの予想を立ててみました。
ということで、いつもの
※体裁がおかしい、計算しても真っ白になる場合は、古いキャッシュが残っているなどで
CSSの読み込み、または、スクリプトエラーが出ている可能性がありますので、
一度再読み込み(キャッシュクリアかCtrl+F5)してください。
からのGoogle Earthで見る各地の様子など
南紀白浜
大阪
名古屋
静岡
高知
東京
東京に関しては、別投稿しています。
注意
これらの軌道は個人的に手計算して作成したものです。
実際の飛行ルートと完全に一致するものではありません。
また、独自作成ですので、もちろんspace one等とは一切関係はありません。
当記事や関連記事へのご質問等は受け付けませんので、よろしくお願いします。
関連投稿
]]>
注意
これらの軌道は個人的に手計算して作成したものです。
実際の飛行ルートと完全に一致するものではありません。
また、独自作成ですので、もちろんspace one等とは一切関係はありません。
当記事や関連記事へのご質問等は受け付けませんので、よろしくお願いします。
関連投稿
]]>
買った頃の記事が2022年なのでほぼ2年ですかね
監視カメラとして24時間365日、
特に酷暑な夏を空冷も無く動き続けていたのだが・・・
(さすがに昨年は熱暴走がヤバかったので100円扇風機を取り付けたが)
今日たまたま画面を見たら・・・
Device mapping table
〜〜〜
Press ESC in x seconds to skip startup.nsh, any other key to continue.
という感じで死んでいた。
とりあえずネットで調べて exit してみるが、
やはりこの画面が返ってくる
とにかくBIOS画面を開きたいので、
適当なキーを押しまくったところ、
電源入れて Esc キーで BISO画面が開くことが分かったので、
(ちなみに、exitを2回くらいやるとBIOSへ飛んでくれることもあとで判明した)
ネットに書いてある Boot Option を設定してみたが起動せず。
完全にアウトかな。
BIOS画面にeMMCも発見できないし。
起動と言えば、Windows RE
早速パソコンで回復ディスクを作って起動して、
ディスクがどんな感じなのか確認してみる。
ディスク 0 が5Gしかない・・・
ディスク 1はWinREのUSB
ボリュームもなし・・・
ということで、Kano PCのディスクであるeMMCがご臨終したようです。
]]>
git@gitlab.com: Permission denied (publickey). Please make sure you have the correct access rights |
そういえば新しいPCにしたときにいろいろゴリゴリやって
古いPCのgitのsshキーを消しちゃったからか・・・
と思いながらsshを作成し直して
git push
また同じエラー
あれーと思ったら、
自分で書いていた・・・
秋の夜長は機械学習〜Visual Studio と git と ssh
はい、configファイルに gitlab.com追加したら解決しました。
ついでに覚え書きで、
自分、googleのアカウントに紐付けログインしているので
(なんて書くとセキュリティ的にどうなんだか、なんだが)
sshを作る時は、
ssh-keygen -t rsa -b nnn -C "yourgmail@gmail.com" -f rsafile |
みたいな感じで作る
]]>
かつての215系のようです。
]]>1号機そのままの軌道になっていますが、
※体裁がおかしい、計算しても真っ白になる場合は、古いキャッシュが残っているなどで
CSSの読み込み、または、スクリプトエラーが出ている可能性がありますので、
一度再読み込み(キャッシュクリアかCtrl+F5)してください。
■予想される現象
予想される現象は次の通り。
現象 | 現象が発生する可能性 |
現象が見られる予想地域 |
イメージ |
ロケット雲 |
あり 日中なので広い範囲で確認できる |
九州南部 |
|
光跡 |
日中なので、ロケット雲しか見えない |
九州南部 |
|
フレア現象 |
日中なので確認は難しい |
||
オーロラ現象 |
日中なので発生しない |
||
発光雲 |
日中なので発生しない ロケット雲は見える ※データが不足していて確証できないが、 冬場なので、うまく東に流されて拡散しなければ、 関東でも夕方発光した雲がみられるかもしれない。 |
九州南部 |
使い方はザックリ取説をご参照くださいm(_ _)m
打ち上げ 見え方予報 しーた朗 〜 使い方
H-IIA F23見え方予想〜計算機 for THETA
注意
これらの軌道は個人的に手計算して作成したものです。
実際の飛行ルートと完全に一致するものではありません。
また、独自作成ですので、もちろんJAXA等の機関とは一切関係はありません。
当記事や関連記事へのご質問等は受け付けませんので、よろしくお願いします。
]]>
次の警告が表示される
構築されているプロジェクトのプロセッサ アーキテクチャ "MSIL" と、参照 "xxx.dll" のプロセッサ アーキテクチャ "AMD64" の間には不一致がありました。
この不一致は、ランタイム エラーを発生させる可能性があります。
プロジェクトと参照の間でプロセッサ アーキテクチャが一致するように、構成マネージャーを使用してターゲットとするプロジェクトのプロセッサ
アーキテクチャを変更するか、ターゲットとするプロジェクトのプロセッサ アーキテクチャに一致するプロセッサ アーキテクチャとの依存関係を
参照で設定することを検討してください。
これは、参照元のプロジェクトと参照したプロジェクトのプラットフォームターゲットが違うよ
ということで、実際にプロパティを見ると
参照元のプロジェクトが参照したプロジェクトのプロセッサと同じで問題なければ、
設定を変更すれば警告はなくなる。
]]>
ずいぶん前に投稿したMoto のG100
先日うっかり取り出すときに滑ってアスファルトにぶつけて、
いつもなら無傷なのに、打ち所がわるかったのか、
画面がビキビキに割れまくってしまった。
3年も経過しているので、そろそろ買い換えか、
と思いつつ、新機種が出るのを待っていた矢先
買い換えか、新機種を待つかのジレンマの末、
ガラスの割れ方があまりよろしくなく、
例えば雨天とかに使うとそこから染みこんでぶっ壊してしまうのでは?
見たいな感じだったので、
買うことに決めた。
前置きが長いのだが、あと少し
メーカーなどを検討しながら、
結局ギリギリまだ販売している Moto G52j II を入手。
設定してから現在使っているのだが、
使い始めて判明したこと
通信が異常に速くない?
最近感じていたのは、駅に着くたびに通信グルグルで
ネットなんて見られたモノじゃないくらいに待ちが発生
下手すると通信エラーでネットが繋がらないのがここ数年
とくに5Gがジワジワと普及しはじめてからはそれが顕著になっていた。
そして、今回G52j II 5Gに変えたとたんに、
そんなことがなかったかのように、
駅に着いてもスルスルと通信ができるようになったのである!
G100は初代5G対応機ではあったが、
実際のところなんちゃって5G対応だったということだろう。
それこそ5Gが普及する過程で、携帯会社が5G優先、4Gは後回し、
みたいなことをしているのかもしれない。
いずれにしてもそのくらいに通信がダメだったのが、
機種変することでここまで改善されるとは思わなかった。
(異常に速いとは書いたが、さすがに人が多いとワンクッション置く速度ではあるが、
G100の応答無しに比べれば劇的な体感速度である)
ちなみに、Moto G52jという初代FeliCa対応のMotoも持っているのだが、
G100と比べると、もっさり感はたしかにあるものの、
G100よりもアプリの立ち上げが速かったりしていたので、
G100自体がよろしくなかったのでは?とも思ったりしている。
(ちょうど良い感じのCPUが出てきた頃だったので)
ちなみに、G52jはG100程ではないが、今回のIIと比べると
劇的な速さは体感できなかった。
もしかしたら、simがドコモのせい(人口が多い)かもしれない。
※例によってIIはYmobileである。
ということで、最近駅で通信が悪いとか感じる場合は、
携帯会社を変える前に、
真の5G対応スマホに書き換えて見てはどうだろうか。
というお話。
]]>
Windowsの標準機能に、ファイル履歴という機能がある。
Macで言うところのTimemachineである
Timemachineはそんなに手間がかかった記憶はないが、
Windowsのファイル履歴は放置しておくと、
いつの間にかバックアップを取ってくれない事案が発生する。
まずは、本当に止まっているのかどうかを確認するため、
イベントログを確認する。
コンパネから、ファイル履歴を見つけて、
左ペインの詳細設定
イベントログのファイル履歴〜〜をポチると
エラーしまくっている履歴が出るが、
正直どこで停止しているのかさっぱり分からない感じである
構成 C:¥Users¥yourname¥AppData¥Local¥Microsoft¥Windows¥FileHistory¥Configuration¥Config
でユーザー ライブラリの変更のスキャンと変更されたファイルのバックアップを実行できません
この内容で検索すると分かることだが、
結論として、
1つのフォルダに、同一名だが、全角の英数記号と半角の英数記号などが混じっている、
フォルダやファイルの名称では使ってはいけない文字(¥とか?とか)が使われている
とエラーを起こすようだ。
早い話、全角が悪さをしているので、
英数で書けば解決
としたいところだが、それはたぶんムリなので、
まず、そのファイルを探さなければならない。
探す方法はいろいろあると思う。
全ファイル検索でも良いと思うし、
フォルダ数が多いとどこに該当ファイルがあるのか正直手に負えないので、
除外機能を使って、コツコツと潰していくなど
実際除外しながらバックアップを取っていくと
まずはここ最近追加したフォルダを覚えていればその辺り、
分からなければ、例えばドキュメントまるごと除外してみたり、
とにかく、ここ最近全角で保存した怪しそうなフォルダを除外して、
今すぐ実行。
かなり時間をかけながら、
こんな感じならほぼ正常。
なので、除外したフォルダに怪しいファイルが潜んでいる。
もし除外フォルダの下にファイルだけならそれを確認、
フォルダがいくつもあれば、とにかく怪しいと思われるものを除外して
の繰り返し。
もし除外を戻して、実行して、
コピーメッセージが
一瞬で消えれば、そのフォルダ内下が怪しい
というのを繰り返していく。
だいたい絞り込めてきたら、
その怪しそうなフォルダ下のフォルダやファイルをまるごとどこかに待避して、
1つずつ、フォルダやファイルを元に戻していく
もちろん待避した場所は除外しておかないとエラーになる。
元に戻して、実行、元に戻して、実行
怪しければ上のようにすぐに 今すぐ実行 に戻るので、
そのフォルダやファイルが怪しいと分かる。
そんな感じに地道にフォルダやファイルを特定していく。
さて、私の場合もやっぱり怪しそうなファイルが一応は引っかかったのだが・・・
確認のため、戻して、実行したら、
なんと、それを元に戻しても正常にバックアップされるようになった・・・
そもそも似たようなファイルがフォルダ下にあったので、
ファイルを1つずつ戻しているうちにバックアップが取れる様になってしまったようだ。
]]>
MSのListsをちょっと使ってみることにして、
Excelとか既存のなんちゃってデータベースを取り込んで遊んでいるところなのだが、
元のリストからフィルタしたリストを作って、
みんなで共有できないかと考える訳だ。
SharePointからだと
右上のすべてのアイテムから
「新しいビューを作成する」
Listsからだと
で追加してフィルタをかけてみたりとゴリゴリしたは良いのだが、
例えば、その状態ですべてのアイテムに戻って、
もう一度フィルタをかけたと思われる新しいビューに戻ると・・・
フィルタが解除されている・・・
何でだ?
???
Listsの方から見ると、該当のビューに * が付いている
ああ、これは保存されていないからか。
で、保存はどこ?
全体を見渡しても保存ボタンのようなものはない。
考えた挙げ句、1つ下の
ビューに名前をつけて保存
を選択してみる
からの
ここでポイントは名前を変えない
*が消えて、他のビューに行ったり来たりしても
フィルタ状態が保たれるようになりました。
]]>
マウスクリックがこのところ重い
見たいな話をされた。
自分のPCはそんなことがないので、
気のせいか、はたまたマウスのクリック部分の摩耗によるものではないか?
と返答したのだが、
マウスを交換しても同じだ、
という感じだった。
原因が分からないまま放置していたのだが、
今日は久しぶりに在宅ワークで、
いつも在宅で使っているマウスで仕事を始めたところ・・・
あれ?Wクリックしても開かない?
というか鈍い感じ?
前回の在宅から3ヶ月くらいにあったイベントとしては、
Win11が23H2になったことくらい
もしかするとマウスの設定が変更された?
または、いつもの設定でも少し反応速度が変更された?
いずれにしても、自分の場合はWクリックの反応速度がおかしい感じなので、
マウスの設定で直してみることに
設定→Bluetoothとデバイス→マウス から
マウスの追加設定右端のボタン
コンパネなら、
ハードウエアとサウンド→マウス
マウスのプロパティが開くので、
ダブルクリックの速度というところを
遅めの方に1目盛ずつ調整しながら、
右のフォルダアイコンをクリクリして好みの速度に変えてみる
好みの速度になったら、
右下の適用をクリックして設定反映
あとは使ってみながら同じ手順で設定変更だ。
あと、何となく感覚だが、
(たぶんこちらの感じが重いと感じる原因?)
Wクリック(上の設定)というよりか、
最初のクリックが重い感じがする。
フォルダなんかは、選択がしっかりなされた後クリック
みたいな感じ、
Wordやその他アプリでも、最初のクリックが若干重めで、
クリック選択したつもりが選択されていない、
見たいな感覚がある。
なので、Wクリックの場合、
選択のクリックで1クリック、
選択されたら次のクリックで2クリック
でWクリック
のまずは1回目に選択されていないと何度クリクリしても無反応
あと、それに関連してワン右クリックですぐにコンテクストメニューが開いた気がしたが、
左で選択された後、右クリックみたいな感じ?
右クリックについては、そもそもちょっと前の感覚が思い出せないのだが・・・
で、こちらの選択時のクリックの重さについては、設定とかがないので、
確実に選択、をするような感じに体で覚えるしかなさそうである・・・
とくに軽く素早くクリックすると、選択されない感じがする。
ク、リ、ッ、ク見たいに重めに、確実にクリックである。
]]>
うっかりしておりましたが、
(延期して)今日ですね。
注意
これらの軌道は個人的に手計算して作成したものです。
実際の飛行ルートと完全に一致するものではありません。
また、独自作成ですので、もちろんJAXA等の機関とは一切関係はありません。
当記事や関連記事へのご質問等は受け付けませんので、よろしくお願いします。
]]>
いつくらいからだろうか、
Officeで保存、とくに名前を付けて保存をしようとすると
デフォでOneDriveが選択されるようになったのは・・・
ガッツリOfficeを使うわけではないので、
とりあえず、左ペインから参照を選んでやる手順で回避していたが、
たまにその他のオプションをクリックしてイラッとして
みたいになるので、設定変更できるはずでは?と探してみた。
とりあえず、オプションにあるはずなので、
左上からファイルをクリックして
左下のオプションをクリック
オプションの左ペインから保存をクリックして、
中程にある「既定でコンピューターに保存する」にチェックを入れてOKすれば、
デフォがローカルになる
]]>
DELL夫のRAID構築で、
これまであまり気にもしなかった RAIDタイプ なるものが表示されるようになった
気にもしないのは当然で、
過去の記事でもそのようなキャプチャがないので、
最近取り付けられたのだろう。
基本的にWindowsの構築が多いので、
そのままWindowsを選択すれば良いのだが、
Linux系だとどっちを選択したら良いのか?
という場面が発生した。
調べてみると、結論としてはどちらでも良いような回答があった。
what does "windows raid" and "linux raid" mean in the LifeCycle Controller?
これを読む限りLife Cycle Controller(LCC)に
これから Winを入れるよ or Linux入れるよ
と通知されるだけで、
できあがるVirtual Diskは同じ物が生成されるようだ。
あと、Linuxを選択すると RAID 1 のみとなるようなので、
RAID 1 以外を組みたい場合は、
Windowsを選択するしかないようだ。
あとは、入れるLinuxがRAIDコントローラのドライバに対応していれば、
RAIDコントローラ経由で作成したVirtual Diskが読み込める
ということで、タイプの選択というより、
基本的に載せるOSに依存するのだろうと考えられる。
あと、ソフトウエアRAIDの時は気にした方が良いらしい。
]]>
PayPayアプリが起動するたびにアプリを更新しろと迫ってきた。
しかし、更新しようとすると
インストールできませんの一点張り
問題を解決するための〜をタップすると
問題解決のあれこれが書かれているので、
一応やってみる
システムのアップデート→まぁ最新だね
OSのバージョン→最近の機種だからね最新だよ
空き容量→十分
ネット環境→WiFiバリバリ
スマホを再起動→ダメ
スマホの電源を落として、起動→ダメ
アプリをアンインストールからの再インストール→アンインストールしたらそもそもインストールできなくなるorz
ということで、更新どころかアプリすら入れられなくなって
詰みましたorz
ちなみに、検索するとキャッシュ削除というのが結構見つかるので、
ストアアプリのキャッシュ削除→ダメ
やっぱり詰みましたorz
仕方がないので、
もう一台あるスマホにアプリは入れ直して、
問題解決
いやいやそれじゃあ困るよ
という感じで数日悩みまくっていたところ、
今度はchromeアプリでエラー
これはそもそも本体がおかしい?
まぁ、もう2年も経つしそろそろ買い換えか〜
でももう少し次の最新機種まで待ちたいから
なんとかならないものかと考えて、
もう一度キャッシュ削除試して見るか?
でもダメだったし、そういえば、ストレージ削除ってのがあったな
ということで、ストレージを消去を恐る恐るタップする・・・
!!!
インストールされました!
しかも、PayPayアプリどころか、
他にも更新できていなかったアプリがあったようで、
芋づる式に更新の通知が・・・
キャッシュでダメなら、ストレージごと削除で解決するかもしれない
けれど、自己責任でよろしくね
それと、ストレージを消去の前に、
ストアアプリの再起動(強制終了)も試して見るとよいかもしれない
自分はダメでした。
]]>
みんな繋がるのに、1人だけWindows共有が繋がらない
ファイアーウォールを切ると繋がるので、
FWの設定であることまでは絞り込めたのだが、
AIに聴いても無難な回答しか返ってこないので、
久しぶりにググって次のページにたどり着いた
【共有フォルダー】ファイアウォール設定「Netlogonサービス(NP受信)」を有効にしてアクセスできない問題を解決
他力ちゃんでここでは詳しくは説明しないが、
これを有効にしたらスルリと通った。
]]>
いやはや、バカバカしい話というのか、
PC買って、せっかくPD使えるから〜みたいな感じで
付属のでかい電源を放置して、
60WくらいのPDをこのひと月使っていた訳なのだが、
何回か投稿している通り、
GPUや電源周りで調子が悪いので、
うすうす気がつき始めていたのだが、
面倒で後回しにしていたことを今日やってみたわけだ。
はい、純正の付属電源を引っ張り出してきました。
挿しました。
爆速になりました。
これまで3分かかった処理が1分で終わるくらいの爆速です。
そりゃこれまでの細々とした電力が
2.5倍の150Wになったら、血流も良くなりますわ。
ということで、なんか調子悪いなと感じたら、
実は電源容量だった、ということもあるんじゃ無いかというお話。
PD買うときに、一応電源容量は気をつけてはいるのだが、
一応60Wなら在宅PCでも動くし、
それ以上は今のところ使うことがないやと思っていたのだが、
将来性を考えるとピッタリよりは少し上を選んだ方が良さそうだ
追記231110
それと、ドライバ更新はしておいた方が良さそう、
下の記事読んだ限りでは、
カクカクの原因はドライバ更新と設定で回避できるかも
Stable Diffusion高速化技術続々登場!TensorRT、SSD-1B、LCMなどを試してみる
]]>
NVIDIA、Stable Diffusionを倍速にするTensorRT。新ドライバで対応
という記事を見たので、
できるかどうか試して見た。
ちなみに、私のグラボは RTX 4060 Laptop 8G である。
とりあえず、公式サイトとgit辺りを読みながら
拡張機能へ放り込む
TensorRT Extension for Stable Diffusion Web UI
NVIDIA Stable Diffusion WebUI TensorRT github
UIを再起動したら、こんなエラーが出まくるようになったが(4つくらい)、
python.exe エントリポイントが見つかりません。
追記 Error loading script: trt.py, ModuleNotFoundError: No module named 'tensorrt_bindings' #27 python.exe entry point not found #78
バグらしい |
たぶん変換はできているようなので、大丈夫だろう
もしかすると、うっかり、ドライバの更新を忘れていたせいだろうか
この作業をやる前に、とりあえず、ドライババージョンは 537.58 にしておいた方がよいだろう。
これが悪かったのかサイトに書いてあるような進捗がGUIには表示されなかったが(一応くるくるアイコンは動いているが)、
CUIの方ではゴリゴリ動いている感じである。
CUI側で has been save to disk みたいなのが出たので、
変換が無事終わったのだろう、ショボいGPUだったので、
だいたい10分くらいかかった
それと、GUI側にもExported Successが表示されたので、
たぶん大丈夫なのであろう
自分はよく使う yayoiMix を変換してみた。
こんなInfoが出てくるが、onnxファイルは勝手に作ってくれるので、
気にしなくてもよいようだ
とりあえずデフォで変換したので、あまり大きな画像は扱えないのだが
何もしないで描かせた場合
30Samplingで1分くらい、
顔補正(ADetailer)込みで1:59かかったものが
TensorRTで描かせたら
30Samplingが16秒、
顔補正含めても37秒で終わった。
爆速になったのは間違いない。
とりあえず、変換時に膨大なGPUとVRAM消費がされるため、
例によってカクカクとなって低速になってしまうため、
一度PCを再起動するハメにはなったが、
描画する上では特に問題はなさそうである。
あと、元のmodel(左)と変換model(右)で描画される画像も若干異なるようだ。
一応Loraなしで描くと若干顔が遠のくので、Loraは読んでいる感じだが、
なんか学習データが遠のいているように見える。
Loraも変換出来るようなので、
その辺も試して見るかな。
あとは、もう少しサイズなどをカスタマイズして変換しておかないと
作画エラーしてしまうので、いろいろと調整は必要そうだ。
現在の課題は、そのサイズのせいだろう、
Hires. fixに移行すると落ちてしまうので、
やはりサイズの調整は必要そうだ
追記
やはり、学習Loraも変換しておいた方が良さそうだ
変換モデル+学習Lora
みたいな感じで作成されて、
さっきのシードが
こんな感じになった。
あとは、サイズの方の問題だけ。
これは公式にも書かれているとおり、カスタマイズでできるので、
説明は省略するが、
やはり8Gだと変換時にメモリオーバーになってしまうようだ・・・
なんどかいじってもムリっぽいので、
もしかしたら、みたにデフォで作ったtrtを消してみる
場所は models 下の
Unet-onnxとUnet-trt下のファイルをズバッと消して空っぽにする。
その後はお好きなサイズを設定して、Export Engine
1024までメモリエラーなく作成されたっぽい
とりあえず、さっきまで描けなかった768以上が描けるようになった。
でも、相変わらずHires.fixとの相性は悪くて、途中でコケるが、
1024の画像もサクサク作成できるので(40秒くらい)、
自分はこれ以上の画質は今のところ求めていないので良いかなとも思っている。
ちなみに、いくつかサイズを調整して描かせた感じでは、
この相性の悪さが、64x64に収めないといけないから
という制約から来るらしいようで、
Upscale 前と後のサイズがお互いに64の倍数に設定しておくと成功する感じだ。
例として、512x768 > 1.25 > 640x960 と言った感じだ。
ただこれだと1024を割ってしまうのだが、
そもそも爆速になったので、元の絵を描きたい最大にして、
Upscale を1にして描かせるというのもある。
まぁ下図をみると分かるように、
ちょっとピントが良くなったかなぁ程度なので、
好みで使うか使わないかを考えるとよいだろう、と言ったところだろうか。
縦1024で、右は Hires.fix有効の Upscale1 で描かせたもの
あと、VRAMがほぼ振り切れっぱなしの状態だが、
1024クラスの絵を10枚とか描かせても安定して2分/枚程度で作画し続けてくれる。
無いときだと、こんな状態が1度でも起きれば一気にパワーダウンだったことを考えると
かなり良くなったと言える。
追記2
自分が使うサイズよりやや大きめに設定してみた。
とりあえず8Gでも一応作ってくれたが、
上の通り大きめ画像はメモリがいつも天をつく感じだ。
]]>
一昨日まで動いていたタスクスケジューラ起動のプロセスが、
急に動かなくなった。
当日やったことと言えば、新しいPCを導入して、
複製をしたくらい、あとは新しいネットワークに接続したくらい?
たまたま、別のPCでネットワーク接続のアプリが
セキュリティソフトでブロックされたことを思い出して、
久しぶりに外に繋がる喜びでセキュリティソフトがアップデートかかって
ブロックされた?
と考えて、一時無効にしても、
ピクリとも動かない。
いろいろ悩んでいて、
タスクスケジューラといえば、そういえば半年前にも同じことがあった
と、脳みそをフル回転してその時の状況を思い出す。
そのときは、タスクが動かないというよりも、
タスクがダブルクリックしたときよりも、
タスクスケジューラ起動のが遅いのが気になり調べた感じだったので、
脳みそで連携が取れていなかった。
そのとき調べた結果は、
タスクスケジューラの優先順位を上げる
という方法だった。
そう、タスクスケジューラには表には出てこない
優先順位なる設定があるのだ。
そして、野良的な自作アプリなどは、
自動的に優先順位低として登録されてしまう。
ということで、まずは該当するタスクスケジューラをエクスポートする。
エクスポートしたxmlファイルをメモ帳などで開く
最後の方に Priorityというタグがあり、
おそらくデフォの7が入っているので、
この数字を小さくしてあげる
ただ、あまり小さくすると他にも影響がでるので、
まずは5くらいにして、低を標準レベルにしてあげる。
元のタスクは無効にするか、名前がブッキングしないように、
あらかじめ削除しておき(先ほどのエクスポートの2つ下)、
優先順位を変更したxmlファイルをタスクスケジューラからインポートして
登録し直す
これで、ポチッとお試し開始をして旨く動けばOK
前の記事で、背景を変えてみたら、という話で
試しに背景を適当に変えてみた画像を用意して
ちなみに、こんな感じ
で、学習させて描画させたら
再学習 | 再々学習 |
まぁ、頭の境界のところが処理が甘く、
合成っぽくなりましたが、
窓付きの背景にしているので、窓強調プロンプトを書かなくても
(無理矢理30階のオフィス窓から日が射す、
みたいなプロンプト、前記事にある重み比較の画像にはそれをわざわざ入れていた)
窓風景なものを描いてくれて、例のLEDな背景は消えました。
逆にカーテンが多かったせいか、カーテンが主張してきましたがorz
あと、青っぽい服が白が強調されたのか白いシャツに変化しています。
重みを変えたり、プロンプトを削ったりして色々試すと
学習の重みを0.8→0.77に変更
|
更に職場というプロンプトを 削除してみる |
重みを減らせば合成っぽい感じがなくなるかな?微妙かな
右はoffice ladyから勝手に推測して、
プロンプトにofficeというのを入れなくても
officeっぽいのを描いてくれていますね
ただ、やはり背景にカーテンを多めに入れちゃったので、
カーテンがごり押しですかねorz
こちらのシードも
青強調が白強調にされた感じですが、LED強調は無くなったようですが、
カーテンはごり押されていますかね、
試しにこちらも教室なプロンプトを消しても、
まぁなんかそれっぽい感じには描いてくれますが、
カーテンはごり押し、髪の境界は合成っぽい感じは消えませんね
それでも、背景を調整してみると何かしら変化はあるようです。
あと、いろいろやってみた感じでは、
髪型とかも引っ張られる(上の合成っぽい感じもおそらくそれ)
ので、重みを低めに、あとで顔だけ差し替え、とか
工夫は必要である。
追記
もはや執念というのか、ここまでやったので、
投げやり | ちょっと頑張ってみた |
合成っぽく見えないように
髪1本1本、毛先まで処理してみました(右)。
あと、背景もできるだけ違う感じでそろえて、
おっと、背景は若干ぼかしを入れておくと、描画時も良い感じにしてくれる、かも
で、いざ学習&描画!
再学習 | 再々学習 | 再々々学習 |
おかげさまで髪の境界は自然になりました。
ちょっと茶色な背景が混じっていたせいか、茶色推しになっているようですが・・・
それと、背景についても若干のぼかしを加えておいた影響か、
被写体以外が少しぼけみになって、メリハリがついた感じもする。
※一応背景は少しぼかして、というプロンプトは入れているのですが、
真ん中のは適当に背景を取り付けて、かつ、ぼかさないで学習させた影響か、
被写体以外の背景にもピントがあっていて、全体的に合成っぽくなってしまったと考えられる。
で、こちらのシードも
茶色が得意になりましたが、境界の不自然さはだいぶ緩和されたように感じます。
あと、たまたま思ったのは、今回顔だけに特化していたのですが、
手足が含まれるサンプルよりもだいぶ手足への影響度(いわゆる崩壊)が少ないと感じました。
なので、顔特化なら上半身、胸くらいから上で学習させると良いのかなとも思いました。
ああ、自撮りで肩から上しかない場合は、
できれば肌の面積は小さくした方が良いみたいだ、
サンプルは肌が多かったせいか、
露出狂扱いされて作画されてしまう感じがする(´д`)
]]>
前回の記事で、あれこれダラダラと長文を書いたのだが、
フリー素材を使って説明だったので、
ピンとこないかも?
とか勝手に思ったので、
良い素材がないならリアルに自分の写真を使え
ということで、軽く補足しておく
(書いていたら軽くなくなったような)
さて、まぁこんな感じで自撮りしまくったり、
スマホの写真とかから素材を確保する
恥ずかしいので、拡大厳禁、突っ込みも厳禁www
実際顔くらいならこのくらいの枚数で十分学習してくれる
で、実際に描画させると
なんか良い感じに描画してくれる
(もちろんガチャなので、10枚くらいとか描かないとなんか遠い写真も出てくる)
(yayoiMix_v20、Hires. fix,ADetailerなど補正なし)
いやいや、そもそもの元はどんな顔してんだよという方もいるだろうから、
恥ずかしながら、素材の中からいちばん良い(w)のを横に並べて見たので
比較していただければ、
よく特徴を捉えていて良い感じではなかろうか!
ということで、ナルシストに自分の顔で
何枚か描いてみたりするわけで
しかし、次第になんか違和感を感じてくる
(心霊特番でいう、おわかりいただけただろうか、的なナレーションが流れるイメージで)
(yayoiMix_v20、Hires. fix,ADetailerなど補正あり)
そう、学習の重みをつよつよに設定すると(それでも0.7〜0.8くらい)、
例えばこの元画像の
蛍光灯(というかLEDライト)や壁紙が主張してくるのである。
今回はサンプル的に同じ場所で自撮りとかした結果、
学習としてこの人は白い壁紙の室内でLED灯の下にいる人
みたいな感じで学習されてしまったようで、
天井が見えるアングルや、そもそも室内風景をプロンプトすれば
LEDどころか壁紙の質感に至るまで
学習内容をより主張してくるようになってしまうorz
ちなみに、服もブルーがかっているのを入れているので、
やたら青い服を着せたがる・・・
そこで、キャプションをいろいろ調整して再学習させるわけである。
これが前回書いた記事の大筋となるわけだ。
で、再学習して描画
初回 | 再学習 |
ちょっと上とサンプル(シード)が違うが、おなじプロンプトでもだいぶ主張が消えてくる
ただ、これでも
完全には学習内容を消し去ることができない場合もある。
という感じで、どうするかを検討することになる訳だ。
■背景を考える
まず、今回一番問題なのは背景になるので、
背景を消してしまう、ということをおそらく考えるのだろう。
しかし、コレは結果的に、
例えば背景を白にすると、今回と同じ事象(白い部屋でLEDの下)が発生し、
やたら白い背景を主張してくる画像しか描いてくれなくなる。
なので、できるだけ背景はランダムに撮影されたものを選んだ方がよい
ということになるのだが、
もちろんランダムなので、その枚数分のキャプション付けをしっかりしないと、
漏れ出たキャプションが主張してくるので注意である。
それと、室内ばかりだと室内の多い画像になるので
(うっかり和室とかで撮るとそればっかり強調してくるorz)、
やはり屋外などもバランス良く入れるとよいと思う。
背景といえば、背景自体をランダムで描かせて、自撮り画像に合成しても良い。
その際背景の構図(特に遠近、カメラ角度)などはあまり気にしなくても良い。
あくまで背景を学習させないためのものなので。
もちろんキャプション付けは忘れずに
→実際にやってみた
もう一つ、好みのものを入れまくると、返ってその特徴が誇張されて学習されるため、
例えば、ホクロみたいなものから、
自分の写真なら涙袋がやっぱり強調されて出ている気がするので、
あまり強調して欲しくない場所はキャプションというよりも
素材そのものを変える、光などを駆使して撮り直す、
面倒ならフォトショするとかで下処理はしておいた方がよい。
※下処理が影響する場合もあるので注意
■キャプション付けは大事
上の再学習の結果を見ても、キャプション付け一つでかなり変化するので、
キャプション付けはしっかりして、
サンプルから何を抽出したいのかを明確にしておくことが大事である
■プロンプトを変えてみる
サンプリングで同じ場所で撮ったためこのような結果(やたら白壁のLED)が生じたが、
プロンプトをちょっといじるだけでかなり変わってくる
例えば、ChatGPTに日が射す教室、みたいな具体的なプロンプトを書いてもらって
プロンプトにぶち込んだ結果、
こんな感じで学習が主張してくるLEDな室内ではなく、
プロンプトの部屋に変更することができる。
まぁそれでも左のようにLEDはかなり主張してくることもあるが・・・
そして、具体的にと書いたのは、
よくある感じで、例えば上だと、Classroomではなく、
school classroom with bright sunlight streaming in ※GPT作プロンプト
くらい強調してあげないといつまでも学習の方が強調されてしまう。
■プロンプトの重みを変えてみる
まず、学習結果をどのくらい取り入れるか、
であるが、デフォの1だと主張しまくるので、
感覚的に0.7〜0.8くらいがよさそうな範囲と感じた
間を取って
<lora:myface:0.77>
とかくらいがギリギリ主張せず、
その他のプロンプトに影響しない感じかなと
コレばっかりは経験則なので、学習内容によっても違いが出ると思う。
ここは0.01単位で調整が必要なところで、
0.01単位で他のプロンプトが反映されないこともある
0.7 | 0.77 | 0.8 |
Seedによっても、この限りではないのだが、
上の例で言えば、
0.7ならLEDな主張は減るが、笑顔プロンプトは反映されず(上)、カメラ目線プロンプトも反映されない(下)
0.8だとLEDが主張してきて、0.7と同様
0.77にしたら、まぁ程よくバランスも取れて、他のプロンプトも反映してくれたが、笑みが不自然かな
みたいな感じである。
あと、話題とは関係ないが、
重み付けを1.3とかそれ以上にすると
なんかおかしな絵になってくるので(なぜか服がはだけるとか)、
学習以外を強調させたとしても、
最大1.2くらいにしておいた方がベターっぽい
どうしてもほしい画像が得られなければ、
やはりサンプルとキャプション付けからやり直した方がよいかと思う。
あとは、img2imgとか拡張機能、最終結果をフォトショするとかだろう。
追記
■modelと学習modelが一致しているか
今回の内容とはすこし違うが、
顔がどうやっても崩れてしまう原因として、
描くためのmodelと学習させたmodelが違うことで、
どうやっても旨く描いてくれない、
というのがあるようだ。
※経験則なので絶対というわけでもない。
例えば、よく使われるBravなら学習modelもBravを選択しておいた方がよいようだ。
上で描かせているモデルはyayoiMixなので、
Pretrained modelは
のようにyayoiMixベースで学習させている
なので、BravやyayoiMixの派生modelで描くと時たま変な風になる
(yayoi自体がBravをマージしているのだが、あまりうまく描いてくれないことが多い)
あまり旨く描いてくれないときは、
ベースmodelを検討してみるのも手だ。
■手足がおかしくなる
サンプルのように自撮りなので、どうしても肩より上の画像となって学習させましたが、
体全体(full body)にしても手足が崩れる感じがないようです。
ずんだもんから始めていた頃は手足も含まれるサンプルでいろいろやっていましたが、
正直おまえタコか?くらい触手がいっぱいな絵が出まくって悩ましく思っていましたが、
今回たまたまこの記事を書くにあたって、顔だけの学習をさせたところ、
ほぼほぼ影響を受けずに描画してくれていると感じました。
ただし、上のように背景がかなり強調されてしまいますが。
といことで、上の影響度を考慮に入れると、
手足はできるだけ避けた、胸くらいから上で学習させた方が
手足のタコ化は避けられるのでは?
と感じました。
ちょっと関係ないですが、
追加記事↓のように背景画像だけでも変えると影響が変化するので、
そういった面から見てもなるべく関係ないモノは映り込んでいない方がよいと考えられる
]]>
とりあえず、特にくわしく文献を漁っていないので、
間違えた解釈をしているところもあることだろうが、
あまりその点には突っ込みを入れないでほしい。
と前置きして、
今回ロケットを切り抜くにあたって、
キャプション付けを的確にしておけば、結構良い精度で欲しい部分が切り出せるみたいな感じなので、
→ |
まぁ先人からみれば、わざわざ書く程のことでは、とお叱りを受けそうだが、
自分なりの解釈でキャプション付けのコツを書き置きしておくことにする。
で、ロケットで説明をしても良いのだが、
とりあえず、機械学習の定番(?)な顔学習で考えてみる。
そして、ずんだか、ぱくたそでも良かったのだが、
説明に良さそうな感じの素材がなかったので、
いらすとやの素材を使わせてもらった。
追記 イラストでは伝わらないかと思い、リアルサンプルでまとめてみた
|
さて、こんな画像があるとする
(学習なので20枚とか)
まぁおそらく機械学習の定番といえば、
顔認識ということで、ここから顔だけを取り出していく訳である。
そして、最初にやることといえば、機械学習についていろいろ調べるのかな、
で、数あるサイトから次のサイトあたりが学習方法や、コツ的なものが書かれているので、上げておく。
【Stable Difussion Web UI】自分でLoRAデータを作成!「kohya_ss GUI」を使って学習環境を構築する方法!
AIに彼女の画像を学習させて架空のスナップ写真を作らせてみた
とりあえず、インストールや設定などはこれらサイトで他力ちゃんして、
機械学習を進めていくわけだが、
素材まで用意したところで必ず出てくる単語として、
キャプション付けというのが出てくる
正直最初何を言っているのかよく分からないとおもう。
自分もそうだった。
とくに、学習させたいものは消すとか、
それってなんか真逆じゃない?とか、
かなり理解に苦しむ訳である。
そして、参考の2つ目のサイトを見ると、
とにかく写真に説明を付けるみたいな感じであるから、結局どっちよ、みたいな感じになり、
いきなり壁が立ちはだかり、初心者を拒む
(いや、初心者とか言っている時点でやめた方がいいかも)
正直自分も毎日学習させては描かせて失敗、を繰り返して、
ようやくコツが分かってきたところなので、
コレばっかりは何度も繰り返しやってみるしかないと思う、
としか言えない。
結局のところこのキャプションがなんのことか、
というのが今回のテーマであるので、話を進めていく。
で、上の画像であるが、
背景がゴチャゴチャとある中にウエイトレスが立っているイメージであるが、
続いてどっちなんだよというワードが出てくる
背景は消せ
背景は消さなくて良い
とサイトによって違う感じで、初心者的には悩ましい。
まず、これについてであるが、
どこでも書いてあるとおり(自分でやった感じでも)、
学習素材は10〜20枚で十分学習してくれるので、
キャプション付けをツラツラと書く気合いがあるなら、
背景があっても問題ない
という感じであろう
先ほど紹介したサイトの2つ目の例では、
とにかく写真の情報を書きまくっているのは、そこからきているのであろう。
しかし、本当にそんなに必要?と思うだろうが、
あとで書くとおり、ちょっとしたことで重要になってくるので、
やはり書くものは書き出しまくった方がよいようである。
書くのが面倒なら次な感じで必要部分だけ切り出して情報を減らすか、
素直に背景を消してしまえばよい。
続いて、そもそも上のゴチャゴチャした画像のまま使うか、
今回は顔だけ認識させたいので、顔の部分だけを取り出すか、
であるが、これについても説明をツラツラと書き出せるならば、
そのままの画像でも問題なく顔だけを取り出して学習してくれると感じた。
ただ、あまりにもゴチャゴチャしている、
かつ、学習の画像は512 or 1024なので、
取り出したい部分が小さいと、結果的に生成する画像の解像度も悪くなるので、
せいぜいこのくらいが適当かなと思う。
顔だけドアップでも良いが、返って精度が悪くなる感じもする。
おそらく、アップにし過ぎて着ている服の情報や背景が悪さをしてしまうからのようだ。
この辺もやってみないと分からないので、
自分なりに工夫が必要であろうが、
そんなところらしい。
というわけでようやくこの画像について、
キャプション付けしていく。
こっちの元の画像でも切り抜いた画像でもどちらでも良いが、
映っているものすべてを書き出していくのがキャプション付けとなる
さて、上の方でチラッと書いた、
強く学習させたいモノを削除(そもそも書かない)して、
学習させたくないモノをツラツラ書いていく
という話題がいよいよ浮上してくるわけだが、
つまりは、こう考えるとよい、
上の元画像を使う場合、
顔を認識させるために、不必要なモノはなにか?
である。
例えば、potやcup、table、chairなどがそれであろう。
できれば、white cap とか pink glass , green glass などのように具体的に説明した方が
より学習時にそれを不要と判断してくれる傾向にあるようだ。
逆にこの人は必ずgreenなglassを持っている
というならば、
green glass を外して、pink glass だけ入れておくと
描画時にたまに green glass が出現してくれる
なので、ツラツラと学習に不要なモノを説明書きしていくわけであり、
モノとかゴチャゴチャあるとキャプション付けが面倒極まりないので、
結局はこのくらいに切り抜いておいた方が面倒くさくない感じである。
仮にこの人物がニーハイ絶対領域なら全身で説明付けした方がよいが、
今回は顔だけなので、無視することにする。
さて、この画像から
irasuto , girl , white cap , black and white dress , her hand , pink glass , green glass , tray , tree , window
みたいな感じでツラツラと不要物のキャプションを付けていく。
先頭のトリガーワードとかそういうのは調べてください。
端折ります。
で、例えば、上の場合、maid costume でいいと思うが、
分からなければそれっぽい名前を入れておけば、
たぶん学習でそんな服を着ているんだなと理解してくれるので、
あまり名称にこだわらなくてもよい。
逆に一般的な名称になっているならそれで書いた方が間違いはないが、
面倒なので、学習に失敗しない限りは適当で問題はなさそうだ。
あと、例は部屋の中なので、
家具の名前とか分からなければ、room とか indoor 、
最初の画像ならkitchen
とでもキャプション付けしておけば、
potとかcupとか書かなくてもああkitchenにいるんだな
くらいは理解してくれるようだが、
仮に描かせたときにpotがやたら出てくるようなら
ちゃんとpotと書いて、学習させないようにしておいた方がよいみたいである。
さて、適当なキャプションを付けて学習させるわけだが、
人物の場合は、左右と正面を適当に同じ位の量を学習させた方がよいみたいである。
右ばかり多めにすると、描かせるとほとんど右の横顔ばかりになる。
そしてたまに左の横が出てくれば、なんか顔が崩れていたりする。
20枚くらい用意するなら均等に6枚くらいずつ
という感じである。
それと、正則化画像が必要か?
というのも気になるところだが、
正直な話、描きたいものがそれしかなければ
特に気にする必要はないというのか、
顔学習くらいであれば、モデル自体がそれに特化しているので、
あまり気にする必要はないようだが、
例えば、ロケットみたいにニッチなデータの場合、
rocket と入れるだけで、学習データが優先されてしまうので、
学習させてあまりに学習データが主張してくるようなら、
正則化画像を入れ込んだ方がよさそう、
という印象だ。
まぁこんな感じで学習させるわけだが、
例の場合、服装をblack and white dressで表現したわけだが、
たぶん、学習結果を描かせた画像に違和感を覚える。
数枚に1つ、必ず黒いリボンをしている画像が出てくる・・・
そう、不要なモノをすべて書き出す、
逆に言うと学習させたいモノはキャプションから外す
という意味合いから、上のキャプションに
black ribbon
が入っていないことが原因と分かる。
使った画像にそんな画像が多いとより強く学習するので、
片っ端からキャプションを見直す。
あと、この服の特徴的なところでいうと、
white collar というのも書いておかないと
なぜか白い襟を必ず描いてしまう呪いが発生する。
とにかく目について主張してくるようなものは服装の一部として端折らず、
単語として書き出しておいた方がよい傾向にあるようだ、
それが定番なsailor suitのリボンであってもだ。
いやsailor suitはリボン含めてsailor suitだろと思うところもあるが、
なんだか知らんが普段着にsailor なリボンが描かれると、
コレまでの学習時間はなんだったのだろうか、と凹むわけで、
このとき改めて、学習させたいモノは削除する(学習させないものを書き出す)、
という意味合いを知ることとなる訳である。
とまぁ、正直これを書きたい(主張したい)ために、
ここまでなんかよく分からないまとまりのない文章を書いてきた感じである。
さて、そんなこんなで、
irasuto , girl , white cap , black and white dress , black ribbon , white collar , her hand , pink glass , green glass , tray , tree , window , room , table
みたいに、とにかく映っているモノで、学習させたくないもを片っ端から書いていく
あと、髪型とかも書き出しておかないと
この人物はこの髪型だ、みたいな感じで描いてくるので、
とにかく片っ端から顔以外のパーツすべてを書き出して
顔だけを特化していく感じとなるわけだ。
ということは、つまり、
特徴のある髪型とかの素材は使わない方が良い。
という話にもなる。
たとえば、こんな感じに頭を結わいた画像があるとして、
この特徴のキャプションを付け忘れると、
この髪型を永遠に描いてくれるorz
ようやく試行錯誤の末に学習結果が完成するのだが、
もし学習させてもうまく描画できないのは
プロンプトの書き方が悪いだけなので、
ネットで調べて気に入った描画のプロンプトをコピペして
数値を調整すれば、今までのは何だったんだろう
というくらいにきれいに描いてくれる
ということで、先の投稿で参考にした
AI美術部 さんあたりがまずは参考になるであろう。
もちろんネットをさまようことも大事
という感じで、いきなりやりたいことをやらないで、
機械な学習の定番メニュー(?)である、
顔学習あたりから勉強すると以外に早道となり、
自分の場合。最初はダメダメだったロケット学習も
背景にゴチャゴチャでいらないものがたくさん映っていようが、
それに関係なく、ロケットだけが取り出せるようになった感じである。
→ |
ちなみに、この学習の場合は、
避雷針が中途半端に学習されてしまったせいで、
何度か描くと避雷針もロケットの一部と解釈されてしまうという欠点があるので、
もう一息賞というところなのである。
追記231008
イラストでは伝わらないかと勝手に思ったので、
リアルサンプルで説明してみた。
]]>
追記231110
この事象、どうも既知のものだった?
下の記事読んだ限りでは、
ドライバ更新と設定で回避できるかも
Stable Diffusion高速化技術続々登場!TensorRT、SSD-1B、LCMなどを試してみる
最初はマウス取り付けたのが原因?
と思っていたところ、いろいろやっていると、
最終的に、GPUがメモリ消費が原因?
というところになってきた。
ちょっとしたことだと、80%くらいなのですが、
やはり学習となるとフルでメモリつかうので、
こんな感じなのです。
で、もっとも問題なのが、
学習中はあまりさわらないのでいいところなのですが、
多少は次の仕込みで、フォルダを開いたり、ブラウザで検索したいわけで、
カクカク状態だとほんとワンクリックしてからいつになったらフォルダ開くの
みたいな感じで使い物にならないわけです。
まぁ、昔の仮想PCとかネットブックだと思えば良いのでしょうけど、
そこで、ちょっと使えないかと試したのが、
使いたいグラボを振り分けられる設定
使いそうなアプリを追加して、
省電力とかかいてあるけど、強制的にIntelなGPUに設定して、再起動
(ちょうどこれを書いている最中、裏で学習中なので、
タスクから再起動した、それだけでもOKっぽい)
これだけでも、昨日までのような、
選択してもなかなか切り替わらない
みたいな現象は体感的に最低限度のカクカクになった気がする。
昨日だったら、こんな長い記事すら書くのも大変だった。
といっても、実際にグラボが何に使われているのかみても、
機械学習なPythonだけなんですけどね・・・
まぁOS任せにするか、
自分で設定して自己満足(なんかサクサクした気分)か
というところなのだろう。
そして、追記
なんか重たいなと感じたら、
まずはタスクマネージャーを開いてVRAMを確認、
もしくはコマンド(nvidia-smi)で
上のように、メモリがオーバーフローしていたら、
正直どんなに頑張っても速度が上がらないので、
学習を中止させて、GPUを再起動か、PCを再起動
同じ学習でも、再起動させればメモリもスッキリで、
サクサクに戻ります。
9時間→40分に短縮されました。
なので、学習前のVRAMはチェックしておいた方がよいですね。
またはもっと大容量なGPUを買うか・・・
あと、もう1つ、
自分はLoraに kohya_ss を使っていて、
できあがったら、sdで作画しているのだが、
sdが待機状態で3Gくらい使っていて、
これにsd-scripts(kohya_ss)が学習時に6Gくらい使っているので、
まぁ普通にオーバーフローしちゃうわけで、
上の画像の通り8Gしかメモリ積んでいないので、
1Gくらいオーバーしてしまうのが原因
↑2つpythonが立ち上がっていて、
1つはsd gui 1つはkohya_ss
なので、学習時は不要なソフトは落とす、
他のGPUでも動くモノは設定で固定しておく
とかしておけばカクカクは回避できるであろうと思われる。
どうしても同時起動させたいなら、
グラボ追加するかなんとかするしかないであろう
追記231015
今日は朝から100枚ほど描かせていたのですが、
12時間くらい経過したところで、画面がちらついて、
勝手にロック画面になる現象が発生
これまで平日日中に描かせて、帰ってきたら落ちていたということが
何度かあったので、その現象を目の前で見ることができた感じです。
GPUのメモリ的には4G/8Gとそれほど使っていないように見えるのですが、
画面がちらついて落ちたことを考えると、
一時的にオーバーフローみたいなのが発生したと考えられます。
その後は3分でかけたものが9分とかそれ以上とかになったので、
とりあえず再起動
再起動後は復旧できたので、
ショボいグラボは適当に再起動をかけて上げた方がよさそうです。
追記231023
うすうす気がついていたのだが、
PCを購入して、せっかくPD使えるのでと、付属の電源を使わずに、
60WのPDをこれまで使用していたのだが、
上の追記のような現象を数回確認し、
再起動しても復活せず、電源を一度落として、電源から離脱すると
回復する、みたいな現象を確認すると、
やっぱり電源的な問題?
みたいになってくるわけだ。
で、かさばるので葬っていた付属の電源を挿して見た。
するとGPUがすこぶる元気になって、
これまで3分かかっていた作画が1分にまで短縮されるようになった。
まぁ、容量が2.5倍もある電源なので、
うすうすは予想はしていたが、
まさかここまでパワフルになるとは思わなかった。
ということで、当たり前すぎて、おいおい的なところだが、
GPUパワーが足りない、不調と感じる場合は、
電源周りにパワーが足りているか確認しておいたほうがよい。
追記231110
この事象、どうも既知のものだった?
下の記事読んだ限りでは、
ドライバ更新と設定で回避できるかも
Stable Diffusion高速化技術続々登場!TensorRT、SSD-1B、LCMなどを試してみる
]]>
とりあえず、いろいろとやってみているところですが、
例えば、飛んでいないロケットを学習させて、
Bが混じっているとかいう突っ込みはしないでね
適当なプロンプトを打ってみると
なんか突っ込みどころのある怪しいのが描けるけれど、
飛んでいないのに、飛んでいる感じの画像ができあがる
というところまではできるようになりました。
ちなみに、ここに至るまでにやっていたことと言えば、
機械学習の定番というのか、
人の顔をどうやって認識させて、
そっくりさんを作り上げるのか
というところで、試行錯誤しているうちに、
なんか学習方法のコツがつかめた感じである。
急がば回れですな。
ちなみに、かなり参考になったのは
ですかね。
ロケットに全く関係ないです(^^;
とりあえず、見て分かるとおりの感じなので、
もう少しゴリゴリ必要ですかね。
追記
学習足りないと思っていましたが、
上の通り、下のようなゴチャゴチャと背景のある画像から
ちゃんとロケットだけを切り抜いて上のような画像を作ってくれている訳なのだから、
全くもって学習していない、という訳ではないことに
改めて気がついた。
→ |
]]>
例えばこんなJSONファイルがあるとする
edgeの整形機能を使うとこんな感じにしてくれる
さて、こんなデータをデータ比較する。
Diffツールはいろいろあるが、
自分は最近、WinMergeを使っている。
そして、WinMergeで開くと
テキスト比較なので、まぁこんな感じになる
できれば、
で比較したいところである。
調べてみると、JSON整形機能というのがあるらしい
プラグインメニューからJSON整形をすると
比較できる
ここまではどこのサイトでも載っているのだが、
問題は、jsonファイルが大量にあると、
開いてはJSON整形をするという手間がかかるという点
で、いろいろこねくり回した結果
プラグインの設定を開いて
その中からPerttifyJSONを探して、
※同じ名前が2つあるので、展開プラグイン/整形 を選択
自動展開/自動比較前処理〜有効にする
にチェックを入れて、OKする
次にプラグインメニューの自動展開にチェックを入れる
これでたぶんJSONを開くと勝手に整形してくれるはず・・・
戻したいときは逆行手順か、
自動展開を手動展開にとりあえず戻してあげればよい
]]>
機械学習あるあるなのだろうか?
例えば、こんな写真があったとして、
まあ回転させるわけですよ
横着して、例えばWindows標準のフォトとかで開いて、
手っ取り早く回転ボタンを押して
まぁこんな感じになる訳です
で、こんな感じの画像をいくつか学習データに入れてポチッとして
出てきた結果でいざお絵かき・・・
あれーっ?
なんか地面が壁になっている・・・
ということで、学習データを作る場合、
フォトとかで回転させずに、
(詳しく調べていないが、フォトとかはjpgのexifの回転データ?をいじっているだけ?)
とりあえずペイントか、あればフォトショみたいなので読み込ませて
データを完全に書き換えないと
変なことになるので要注意(汗)
そして、無駄な時間が過ぎてしまった・・・
]]>
例によって機械な学習で、
タグ付けツールとかいろいろ紹介されているけれど、
正直使いにくくて、というか、
そもそもロケットを機械学習させる人がいない(?)ので、
タグ付けもなんか変な感じなのしか出てこないわけで、
そしたら、次の方は自分でタグつけツール作っているようなので、
【簡単に出来る】自分だけのLoRAを作ろう!追加学習のさせ方を詳しく解説(Stable Diffusion)
自分もゴリゴリと作ってみたわけだ
とまぁここまでは良かったのだが、
例によって新しいPCなので、
いろいろと設定を施さなくてはいけないわけで、
gitあるあるのsshで少し難儀したわけだ。
基本的なsshの設定については、正直どこにでも書いてあるので、
その辺は問題はなかった。
ただ、問題は、git bashでは疎通できるのに、
Visual StudioのGit機能からは全く疎通できないトラブルで悩んでしまった。
はい、git あるあるの
git@gitlab.com: Permission denied (publickey). |
が連発
で、よく見みてもらうと、
git@gitlab と gitlab.com
の2つコマンドを打ち込んでみた結果なのだが、
前者は疎通が取れて、後者は疎通が取れていない感じである。
ちなみに、前者はgit bashくんで設定したもの
後者はVSがたぶん接続しようとしているものになる。
ということはこの辺に接続でいない鍵があるのでは?
ということで、ネットで調べたりして、たどり着いたのが、
.sshに作ったconfig
中身を見ると、登録したHost が gitlab しかないのがもしかしたら原因?かも
ということで、gitlab.com をHostで追加してあげたら・・・
なんか接続できたっぽい
ということで、私の場合の原因は、
ホストの登録ミスに気をつけてみて
という感じでした。
追記
別のPCの設定を確認したら、
gitlab.com
で登録されていた。
なので、
gitlab ではなく、
gitlab.com で登録した方がよいようだ。
]]>
最初はマウスと思っていましたが、
どうやらロック画面とグラボが原因っぽいです。
つけっぱなしにしていてもダメで、
どうやらグラボのメモリ不足が起因しているようでした。
とりあえず改善提案
→追記でも書いたが電源を見直したらさらに改善されたorz
追記231110
この事象、どうも既知のものだった?
下の記事読んだ限りでは、
ドライバ更新と設定で回避できるかも
Stable Diffusion高速化技術続々登場!TensorRT、SSD-1B、LCMなどを試してみる
記事はここから
過去をたどれば何となく察するところかと思うが、
結局のところ、GPU学習が今現在Intelだと難しいため
NVIDIAなGPU搭載のPCを買うことにしたわけだが、
買ってから数日はまともに動いていたのに、
今朝から調子がよろしくない感じがする。
やったことと言えば、
昨日は普段使うソフトを入れたことくらい。
特にセキュリティ関連のソフトを入れると
スキャンが入るので、それかなとは思ったが、
考えてみると今の今まで普通に使えていたので、
それではなさそう。
もう一度考えてみると、
PCをスリープさせて、その後回復してからおかしくなった気がする。
ということで、スリープ周りに関して検索をして、
powercfg.exe で休止モードに関する設定をoff / on などしてみたが、
あまり改善はされたように見えない。
続いては、Edgeを開くとやたら重くなる気がする?
そういえば、今朝方Edgeがアップデートしたとかいう通知を見たような見なかったような。
あと、色々調べ物をしていてタブがいっぱい開いているので、
不要なタブを切ってみたらだいぶ軽くなった?
でもカクカクしているな。
あとは、念のため再起動
少しは良くなった気がするけれど、Edgeを開いたあたりから重くなる気も・・・
あと考えられるのは、
SSDとか怪しいメーカーのが仕込まれているから
初期不良?
などなど考えまくっていて、
そういえば、あと違うところはマウスパッドが使いにくいから
予備の有線マウスを今朝は付けて作業し始めたな、
違いを模索して半日くらい経過したところで気がついて、
まさかなぁ、でももしかしたら、
(最近USB-Cでもいろいろあったし)
みたいで、違う点という意味で外してみたら・・・
あれ、なんかなおった?
なんかもう購入直後くらいにサクサク快適になった。
どうも、取り付けたUSBマウスと購入したPCが相性が悪かったっぽい
ということにしておく。
とりあえず、PCがカクカクしたら、
これまでと、現在の違いを考えてみると良い
というお話
追記230923
数日経って、またカクカクになった。
前回と同じでスリープからの復帰、
というか、今回はロック画面からの復帰というのかな。
ということで、まずスリープが原因なのはほぼ確定
そして、前回と違うのは、マウスが接続されていないこと
なので、もう少し原因を考える、
というか、原因は考えるもなく、
ちょうど機械学習をやっている最中であること、
これも前回と同じである。
一応PC自体は落ちないようにしているのだが
長時間つけっぱなしはあれなので、一定時間でディスプレイの電源を落としているのだが、
このときロック画面になってしまうことが原因かもしれない。
さて、カクカクをどのように復旧させるか、
であるが、
の再起動をまず試してみる。
田+Ctrl+Shift+B
同時に押すと一瞬画面が暗くなり、すぐに復旧する。
少しは改善できるかと思ったが、
どうやらっぽい
一応電気的なものなので、
上でもやったかんじで、
シャットダウン、電源とか切り離し放置、起動
をやってみる
少し軽くなった気がするが、
あんまり改善された感じはない?
じゃぁ、普通に再起動
あれ?なんか軽くなった気が
という感じで復旧したっぽい。
そんなわけで、
機械学習中にディスプレイがおちて、
ロックになるとなんかGPUが計算で目詰まりを起こしてしまうのか、
調子がよろしくなくなることがあるようだ。
計算中は画面を落とさないようにするしかないのかな。
追記230925
うすうす気がついてはいましたが、
どうも学習内容が多い場合で、メモリがVRAM不足し始めると
カクカクとし始めるようです。
というのも、ロック画面していないのに、
30分くらいのところでカクカクしはじめました。
さっきは30分くらいの計算でも、かくつかなかったのに
4倍くらいの計算を始めたら・・・
自分のPCはインテルマシンも入っているので、
カクつかせないようにアプリをに振り替えてもらいたいところです・・・
このあたりをいじって見るかな
ということで、いろいろ分かってきたので、
改善提案
追記231015
今日は朝から100枚ほど描かせていたのですが、
12時間くらい経過したところで、画面がちらついて、
勝手にロック画面になる現象が発生
これまで平日日中に描かせて、帰ってきたら落ちていたということが
何度かあったので、その現象を目の前で見ることができた感じです。
GPUのメモリ的には4G/8Gとそれほど使っていないように見えるのですが、
画面がちらついて落ちたことを考えると、
一時的にオーバーフローみたいなのが発生したと考えられます。
その後は3分でかけたものが9分とかそれ以上とかになったので、
とりあえず再起動
再起動後は普通にサクサクに戻ったので、
ショボいグラボは適当に再起動をかけて上げた方がよさそうです。
追記231022
まぁうすうすは気がついていたが、
電源的なところが気になり始めたので、
付属の電源に切り替えて見たら、すこぶる元気になった。
これまでどこでもできるからと、
重たい付属では無く、PDな電源を使っていたのだが、
やはり付属の2.5倍容量に変えるだけで、
3倍速とか笑えるような話になった。
]]>
学習をどうにかやらせることを考えていたので、
見落としていたが、
found directory xxxpath contains 55 image files
No caption file found for 55 images. Training will continue without captions for these images. If class token exists, it will be used. / 55枚の画像にキャプションファイルが見つかりませんでした。これらの画像についてはキャプションなしで学習を 続行します。class tokenが存在する場合はそれを使います。
というエラーが出ていた。
せっかく作ったキャプションファイル読んでいない?
で、ちょっと調べたら、キャプションファイルを定義していないとのことだった。
パラメータの Caption Extension のところに、
テキストなら .txt
で解決
]]>
さて、普通なら美女とか美少女イラストを描かせたりするのだろうが、
例によって
がひどすぎたので、
まぁご承知の通り、ロケッこは斜め横に飛んで、
ロケットを学習させてみている最中である。
いろいろな学習や出力結果例の記事に書いてあるとおり、
プロンプトを少しずつ変えながら、
50例くらい描かせると、たまに良いのを描いてくれるようになった。
たまに鹿児島の市内かなぁみたいなのも描いてくれるw
まずは一回目で適当に入れ込んだ結果なので、
もう少し調整が必要かな?みたいな感じである
それとためしに上の1枚目を元に、
本来美女を描かせるためのBravでロケットを描かせてみたw
ちょっと実写っぽくなったけど、
ズレや雲の形が明らかにコピーしたような感じになっているのが気になるかな。
でもなんか島のどこかで撮ったような感じがする。
あと、学習させた写真が必ず曇っているのが影響して、
どれもみんな雲が入っているというorz
]]>
VS2022をインストールして、
製品登録をしようとメニューから選択しても、
製品登録の画面が出てこない・・・
これまでは普通に立ち上がったのだけれど・・・
Visual Studio の登録 から普通は登録画面が立ち上がるはず・・・
さて、どうしたモノかと考えて、
関係ないけれどよくありがちなバージョン情報開いたらあるかも?
なんて、思って2つ下の VS のバージョン情報 というのを試しに選択してみる
でも、それっぽいモノはなさそう
と思ったら、右上にそれっぽいものがある
ライセンスの状態
ポチってみる
サインイン or プロダクトキーの登録の画面が出てきました
]]>
さすがGPUパワー3か月が5分に短縮
]]>
先日興味本位で Stable Diffusion を使ってみたのだが、
手始めにrocket Launchとプロンプト打って描かせたら・・・
上げている場所と上がっている場所が残念な絵が描けた
まぁ、プロンプトが少なすぎるため、というのが理由なので
致し方がないが、
描こうと思えばいろいろ描けるようなので、
次はいろいろ学習して描いてみようかと思ったのだが・・・
先日の投稿からも分かるように、
私の手持ちは古っいCPUとGPUもIntelしか持っていない訳で、
そんなマシンでもできるのか?といろいろネットを探しまくって
やれるだけやってみた。
先に結論を描くと、まぁ先人も言っているように、
CPUでは学習はさせてはいけない
であった。
1回の計算に3ヶ月かかるとか、もう笑いが止まりません。
CPUではなく、IntelなGPUで学習させれば良いところなのでは
と思う方もいるかと思いますが、
正直面倒なので(Nvidiaにチューニングされていることが多く)、
参考文献は漁りながらもチューニングには至っていないところです。
さて、GPUな話は置いといて、
まずは Stable Diffusion で機械学習と検索すると
おそらく Lora あたりが出てくると思う。
続いて Lora を調べると sd-script あたりにたどり着くのかな。
そして、インストールについては、いつも通りの他力ちゃんとして、
本題のCPUでやってみようという場合でも
accelerate configについては、
いろいろ設定してみたが、ネットに書いてあるとおり設定すればよい感じであった。
ただ、デフォのままに 学習を開始すると、
Nvidiaなエラーが続出する。
なので、次の点を気をつけて設定する。
まず、始めにひっかかるのは、
CrossAttention で
xformers がNvidiaなモジュールなので、
引数に含めないか --sdpa を引数にする。
※GUIを使う場合は、CrossAttention欄から None か sdpa に変更する
これをしないと
ValueError: torch.cuda.is_available() should be True but is False. xformers' memory efficient attention is only available for GPU |
が吐かれて先へ進めない。
続いて、
mixed_precision
save_precision
GPUなら単精度のfp16で問題ないが、
CPUはbf16にしないと、
RuntimeError: "addmm_impl_cpu_" not implemented for 'Half' |
を吐く
それと、
optimizer_type
これについてもGPUなら8bitと書かれているものを選択するが、
CPUの場合は8bitなしのものを選択する。
そうしないと、
Error CUDA driver version is insufficient for CUDA runtime version at line 167 in file xxx¥tool¥bitsandbytes¥csrc¥ops.cu |
を吐く
今やったところでは、これでエラーを吐かなくなったが、
例によって永遠に終わらないので、
CPUでも学習させることができる、かもしれない
といったところである。
なので、やってみたいと思っている方は検討を祈ります。
IntelなGPUでチューニングするか、
IntelなGPUで作れる学習を探すか、
ちょうどPCを買い直そうと思っているので、
ここは素直にNvidiaなPCを買うか
ですかな。
Macで動くみたいだからIntelなGPUでも動きそうなんだけど・・・
例の12世代のCPUでも
3倍速くはなっているが、到底GPUに及ばずorz
追記
ゲタを履かせてみようと、ソースをゴリゴリしていますが、
ちょっとうまくいっていません。
]]>
宇宙から見た打ち上げ
追記
2回目も無事作動したようです
]]>
なんかアプリの広告とかに最近AIななにが出てくるので、
興味本位でやってみようかなと思ったけれど、
持っているPCが第6世代CPU+Intel GPUなので、
そんな環境でも動くのか調べながら半日が過ぎてしまった。
で、ネットで検索すればインストールのやり方はいくらでも書いているのだが、
最近のやり方に変更があったのか、
何点かつまずいてしまった。
とりあえず、インストールのなにがしは検索してもらって、
次のようにしてみればよいようだ。
まず、古い文献では、launch.pyの中身をゴニョゴニョすると書かれているが、
残念ながらlaunch.pyにそのような記述がなく、
全文検索したところ、同じフォルダ内の modules というフォルダの中に、
launch_utils.py
というファイルがあり、その中に修正するべき「torch_command」が記述されている。
なので、この部分を修正するか、
または、下の参考URLを参考に「torch_index_url」というところを修正すれば良いようである。
torch_index_url = os.environ.get('TORCH_INDEX_URL', "https://download.pytorch.org/whl/cpu") |
または
torch_command = os.environ.get('TORCH_COMMAND', "pip install torch torchvision torchaudio") |
ちなみに、LoRAとか入れるときもグラボ使わないので、
pip install torch==2.0.1 torchvision==0.15.2 --extra-index-url https://download.pytorch.org/whl/cpu |
ってやってあげないと、たぶんエラーするとおもう。
あとは文献通り webui-user.bat を起動
で、そうそう、
Model loaded in |
って出た後に、
local URL : http://127.0.0.1:7860 |
って出るみたいな書かれ方がされているのに、
全く出ないから何でだ、と思って
調べようとブラウザ見たら・・・
既に(自動で)立ち上がっていたという・・・orz
なので、いつの間にか立ち上がっていれば成功っぽい
で、よくよくコマンドを見たら
文献と逆さになっていたので、見落としていた感じだったようだ。
あと、初期に webui-user.bat を叩いたときに
pythonのエラーが出まくって困ったが、
Couldn't launch python |
どうやらユーザー名が日本語だったのがダメっぽかったようで、
解決策としては、インストールを一度削除して、
Cドライブ直下にai でも pythonでもいいから
フォルダを作って、その中にpythonを入れ直すか、
シンボリックリンクが分かるなら、インストールされているユーザー名下のpythonを
やはりC直下の適当なところにシンボリックリンクして、
そこにパスを通すか
webui-user.bat の
set PYTHON= |
にパスを通して上げれば解決するっぽい。
今のところそれくらいかな。
記事書いている間に適当なプロンプトで描かせて見ているが、
CPUは振り切れるほど回転はしいていないが、
なんか風景画を描いてくれている様子
そして、
rocket launch
ってコマンド打ったら、
こんな感じに描いてくれた
同時に2ヶ所で打っているのか、
というような微妙な感じの仕上がり・・・
まぁ、デフォのモデルですし、
真面目に描かせたければ、習とかさせないとダメなところなんですけどね
参考URL
CPUでStable Diffusion WebUI、Automatic1111を使う
【Windows11】Stable Diffusionのインストール方法を解説
stable diffusion webUI 日本語化のやり方【stable diffusion webUIの使い方】
追記
去年くらいからIntelのCPUだかGPUだか、
とりあえずIntelでも動くようになったらしく、
インストールのところに Intel CPUって表記があったので、
最初はこれを入れていたのですが、
上に書いた通り、全然 http:// が出てこないから
なんか失敗しているのでは?
とずっと悩んでいましたが、
例によって公式つかって、参考URLをつかって、
ゴリゴリやったら上のように動いたので、
もう一度Intel版で挑戦してみたら・・・
やっぱり http:// のところが
Model loaded
よりも先に書かれていた・・・orz
で、intel版のgitは自動立ち上げされないので、
そこでつまずいていたことが更に半日経って分かったこと orz
URLをコピってブラウザに入れたら
描画できました。
で、試しに借りたPCが少しよさげな12世代使ったので、
3分で富士山描いてくれました。
GPUはiRISxeなんですけど、全くGPU使わないでCPUだけで描いてくれたみたいです。
6世代も上がるとCPUだけでもバリ速になるようで・・・
ということで、Model loadded in のところで止まっているように見えますが、
10行ちょっと上に http の表記が出ていれば問題ないようです。
参考URL
AUTOMATIC1111/stable-diffusion-webui 本家
openvinotoolkit/stable-diffusion-webui Intel
]]>
来週にせまっております47号機の打ち上げ
いつもとだいたい同じ軌道なので静止軌道シリーズのコピーになります。
おおよその見え方を検討してもらえればOKかと思います。
場所により太陽に突っ込むので、
双眼鏡などを使う場合はお気を付けください。
※体裁がおかしい、計算しても真っ白になる場合は、古いキャッシュが残っているなどで
CSSの読み込み、または、スクリプトエラーが出ている可能性がありますので、
一度再読み込み(キャッシュクリアかCtrl+F5)してください。
■予想される現象
予想される現象は次の通り。
現象 | 現象が発生する可能性 |
現象が見られる予想地域 |
イメージ |
ロケット雲 |
あり 日中なので広い範囲で確認できる |
九州南部 |
|
光跡 |
日中なので、ロケット雲しか見えない |
九州南部 |
|
フレア現象 |
日中なので確認は難しい |
||
オーロラ現象 |
日中なので発生しない |
||
発光雲 |
日中なので発生しない ロケット雲は見える |
九州南部 |
使い方はザックリ取説をご参照くださいm(_ _)m
打ち上げ 見え方予報 しーた朗 〜 使い方
H-IIA F23見え方予想〜計算機 for THETA
注意
これらの軌道は個人的に手計算して作成したものです。
実際の飛行ルートと完全に一致するものではありません。
また、独自作成ですので、もちろんJAXA等の機関とは一切関係はありません。
当記事や関連記事へのご質問等は受け付けませんので、よろしくお願いします。
]]>
いざ出陣というわけではないのですが、
前回が仮組みというタイトルだったので。
THETAとVRH-8を
前回はこんな感じでイメージ付けしていたものを、
適当なパーツを集めてこんな感じにしてみた、
実際にはカメラとかマイクとかゴテゴテと取り付けられるのだが、
全空間録画集音部はこんな感じでしょうか。
早い話、少しTHETAを下げて録画と集音部の誤差を小さくしてみました、ということ。
下げたことで、機材の映り込みが増えてしまいますが、
このZ型雲台とかいうパーツは
こんな感じに折り曲げたりもできることや、
例によって立体的に機材を組み上げるので、
H8+VRH-8自体を正方向にして
THETAはもっと高い位置から撮影でもよいですし。
その都度調整ですかね。
問題は、機材がそろっても、
そもそも最近現地に行かなくなっていますが・・・
]]>
PCのディスクを交換しようとおもい、
ついでにクリーンインストールしようと思ったら、
ディスクが表示されない・・・
BIOS上では認識されているのに、
WinREで立ち上げてコマンドからDISKPARTすると
なぜか認識されていないことになってしまい、
バックアップイメージとかから復元しようとしても、
0x80042414というエラーが出てバックアップからの復元もできない・・・
いろいろ調べた結果、取説というかメーカーサイトの
リカバリ方法に、
VMDドライバーをインストールして
という記述に気がつく
VMDドライバーというのは、
インテルラピッドストレージテクノロジーのVolume Management Drviceのことで、
早い話、使っているPCがRAID構成もできるようなPCの場合、
使う使わない関係なく、
それのドライバを入れないとHDDが見えない
というわけである。
とりあえず取説にしたがって、
メーカーサイトからVMDドライバーを落とし、
起動USBにドライバを仕込み、
(Win11とかのイメージをUSBに作った時は、そのUSBにフォルダを仕込んでおく)
上画像のドライバの読み込みから取り込んで上げることで、
HDDを認識してくれるようになった。
あとはいつも通りのインストールでOK
もし、バックアップから回復させたい場合は、
ドライバを認識させたあとに、インストーラを終了し、
再起動させないままに、WinRE画面に戻り(戻るはずなので)
そこからバックアップからの回復を選択し、
バックアップイメージから回復させればよい
とりあえず、RAID構成ができるPCを購入した時は
リカバリ前にメーカーサイトでインストール手順を確認しておいた方がよい、
というか説明書を読めよという話
]]>
ロケット打ち上げもないのでそのときが来たら準備すれば良い話ではありますが、
せっかく購入したので、必要な備品チェックのために仮組みをしてみた。
そのまえに、届いたVRH-8はこんな感じ
全部入りにするとこんな感じのフィールド
さて、仮組みの話に戻るが、こちらが今までの感じに組み上げていた
なお現場ではもう少しフォーメーションが変わるのだが、
あくまで仮組みなので。
で、これをVRH-8に変更してみたらどうなるのか、
頭の中では機材がググッと減るイメージなのだが・・・
なんか減るつもりが減っていない・・・orz
こんなことになるなら、初めからH3-VRを先行して購入しておけば良かった・・・
なぜ減らなかったかと言えば、
ここに投稿している動画の音声が小さくて聞き取れない
というコメントをいくつかもらったことがある。
その原因はロケット集音は音割れ防止のために、
かなり録音レベルを下げているためで、
現場の臨場感よりもロケットの音を集中的に撮っていたことが
返って視聴する人には小さく感じてしまったようだ。
ということで、ロケット自体の録音レベルは落とさずに、
実際に耳で聞くレベルで集音したらどうなるのか(音割れしますが)
という発想から追加したのが 耳音マイク になる
こんなことができるのはH6やH8が
マルチ録音に対応してくれているおかげであることは言うまでもない
そんなこんなで、機材が増えたため、
逆に機材が減らない原因となっている。
ゆえに、今さらながら、H3-VR買っておけばH3の全周録音にも間に合ったし、
来る集音で機材も減らせたのでは、という話になる。
とはいえ、1台でマルチに録音できるH8に集約した方が
カチンコ使わなくてもボタン一発なので、
編集時を考えるとH8 1台体制の方がよいので、致し方がないことであろう・・・。
さて、どうでも良い話は置いといて、
H3-VRにはTHETAと組み合わせて録音できる
デュアルマウントアダプターというモノが付いているらしいのだが、
VRH-8にはそんなモノは付いていない
とりあえず、今回は仮組みなので、
イメージを付けるために、こんな感じに持っているものを組み合わせて作ってみた
もう少し間を詰めて、
プレートを1枚にしたいところだ。
]]>
いつのまにかポチれるようになっているし
でも公式のニュースとかには発売とか正式な案内がないんだよなぁ
H8のページでもストアへのリンクないし
→なんか書いた直後に出てきました。見えていなかっただけ?
公式ストアだけど本物かな・・・
追記230805
1週間ほどは在庫1でしたが、
昨日見たら入荷待ちとなっていました。
関連投稿
関連URL
]]>
結論として、半年もしてからメーカーが不具合を認めてファームアップを出しました。
|
記事はここから
使っているPCのUSB-C 端子が希に動作しなくなることが起こる。
最初は繋げているUSB-Cの複合ハブのHDMI出力がダメになり、
そのうちマウスとかLANとかも反応しなくなる。
何度か再起動(シャットダウン、しばらく置いて起動)しているとご機嫌が良くなる。
まぁ繋がれば問題はないのだが、
PC自体がピクリとも動作しなくなってしまった・・・
電源押しても全く無反応、
さっきまで正常動作していたのに・・・
仕方がないのでメーカーに直してもらおうとするが、
下手すると初期化されてしまう & さっき作った資料のバックアップがない・・・
さすがに3日かけて作った資料をゼロから作る気力はなし
季節の変わり目だったので、
もしかしたらパソコンあるある放置するとなおる?を試したところ、
2時間くらい、忘れていた頃に起動したらなんとか起動することができた。
もちろんUSBも復活
既にメーカー修理依頼出してしまったので、
メーカーに送ってはみたが・・・
診断結果、異常は見つかりませんでした。
→追記 メーカーが不具合を認めました。
ということで、何もせずに(保証切れていたので診断料は取られた)返却されてきた。
返却当日は特に問題なく利用していたが、
翌日になったら・・・
またHDMIがおかしい?
システムログ見ても有益な情報なし
デバイスマネージャも覗いてみると・・・
USB コネクタ マネージャー
→ UCM-UCSI ACPI デバイス というのに ビックリマーク が付いていた。
中身を読むと、上のように
問題が発生したのでこのデバイスは停止しました。(コード43)
となっていた。
調べたところ、USB(USB-C)の動作が不安定なので、とりあえず止めちゃったよ
みたいな感じらしい。
とりあえず、ドライバーを更新してみるか、
WindowsUpdateするか、
再起動してみよ
みたいな情報しかないので、
ドライバを更新したが、特に最新はなし
削除して再登録もしてみたが、バージョンが変わることも、!が消えることもなし
WindowsUpdateももちろんなし
あとはいつも通り再起動
(ちなみにシャットダウン時はすべての電源や挿しているデバイスを外しておいた方がよい)
ということで、3回くらいシャットダウン、放置、再起動 をしたところ、
USB-CからHDMIが出力されるようになった。
ただ、上のドライバの!マークは消えないままだった。
まぁとりあえず治ってはいるので、そのまま使い続けること3日くらい
思い出したようにデバイスマネージャーを開くと
なんか正常動作している
コレばっかりは根気よく再起動したり、
放置したり(放電?)環境の良いところで使うしかなさそうである。
あとは使っているUCBデバイスとの相性なのか・・・
そういえば、昔USBに過電流が流れるとOSがUSBを強制無効化する仕掛けがあったので、
もしかすると電気的に良くないモノがUSB-Cに流れて上のようになったのか。
これは、なんとなくだが、
PCに変な電荷?が貯まったか、なのか電流が流れ込んで
PCがおかしくなっているように見えるので
途中に書いた通り
再起動するときは、再起動ではなく、シャットダウンして放置して起動
シャットダウン状態の時は電源は抜き取り、バッテリーが外せるなら外す
接続されているすべてのデバイスもとにかく抜き取る
そして放置
足りなければ長めに放置
しか解決策はなさそうである。
あと、季節の変わり目とか湿気が多いところだと
PCが起動しなくなることがある。
寒いときは暖める、
湿度が高ければ除湿する
は大切
追記
どうも、人に話を聞くと、Type-C自体が不安定要素を持っている感じがする。
その人もたまに認識しなくなることがあったので、
Type-Cはあまり使わないとのことだった。
もし使うことがあったら、デバイスマネージャからコード43が出ていないか見て見た方がよいと言っておいた。
Type-C自体が色々種類があり、
電力的にも幅が広いので、
USBが出始めた頃のようにまだまだ不安定なのかもしれない。
追記230912
久しぶりに外付けディスプレイがつかないので確認したら、
やっぱり外付けUSB-Cの複合ハブがコード43でゲロっていた。
先日はこの状態でシャットダウンしたら、
ご臨終状態(2時間くらい休ませたら復帰)だったので、
電源を落とすか悩んだが、
ダメだったらダメで仕方がないと割り切って、
とりあえずシャットダウン
湿気や気温、または、電気的なモノのような気がしているので、
バッテリーは外せないタイプなので、そのままにして、
電源を外して、USBも外して、1分くらい待つ(じっくりやるなら5分とか1時間とかなんだろうが)
そして、元に戻して電源投入で・・・
よかった外付け画面が表示されました。
という具合なので、
コード43が出たら、まずは電気的なものを疑って、
放電させてから(バッテリー内蔵だと難しいが)
立ち上げると、復帰するかもしれない。
ただ、本当に電源が逝っちゃう場合もあるので、
申し訳ないのだが、自己責任でやってもらいたい。
追記231006
数ヶ月に1度くらいこの現象が出ているが、
とりあえず、すべての端子(電源含む)を抜き取って、
1分程放置することで、解消できている。
今日は、WindowsからUSBが低電力により不安定になる、
見たいな通知がポップアップされた。
USBデバイスにはより多くの電力が必要になる場合があります。
そのメッセージをクリックすると、
次のページに飛んだ
とりあえず、まずUSBデバイスの設定(USB設定)というのがあるらしいので、
設定を確認して見る
シャットダウンから起動すると、
この事象が起きやすいので、
起動時にUSB-Cへ供給される電力が一時的に落ちるとかあるのかもしれない。
ちなみに、電源を接続しているのに、節約機能が・・・とか言うメッセージだった記憶なので、
この設定はAC、バッテリーに関係なく誤判定して供給を止めている可能性も少なくない気がする。
あまりに頻繁に発生するようならば、
この辺をいじって見ても良いのかもしれない。
あと、上のリンク先の下の方にはUSB-Cのトラブルシュートがいくつか掲載されている
その中で、エラーコードを検索するには、という項目があるので、
今現在の状況をこの手順で調べてみると良いかもしれない。
ちなみに、コード43は
こんな感じらしい
追記240128
メーカーが不具合を認めて
BIOSのアップデートが出ました。
WindowsUpdateからでも更新されます。
しかし、以前もでしたが、やっぱりT芝クオリティだなと感じた・・・
というか、T芝に限らず、最近の国内メーカーのサポートの知識力が乏しすぎると感じている今日この頃である
6600円返金してほしい
]]>
IKEAのベッドマットレスの表面が汚れていたので、
洗ってみようかと思ったのだが・・・
ファスナースライダーの引手が・・・
取れたのか、初めからなかったのか・・・
さらには、ロックがかかっているので、
スライダーを開けることも閉じることもできない。
ようは、引手がロック解除するタイプのファスナーのようだ。
ロック式ファスナーの構造を理解すれば、引手がなくても解除できるはず
ということで、別のロック式ファスナーロック解除の仕組みを確認して
試して見る
まず用意するのは、スライダーの穴に入るくらいの
マイナスドライバー
マイナスドライバーをスライダーの弓なりになっている金属(?)部分の下側に入れる
そして、弓なりの金属(?)を上に持ち上げる
この状態で後はスライドさせればファスナーを降ろすことができる。
汚れていたカバーが洗えて良かった。
]]>
ちょっとNLogをアップデートしたら、
こんな警告が出るようになった。
'NLogBuilder.ConfigureNLog(string)' は旧形式です ('Use LogManager.Setup().LoadConfigurationFromAppSettings() instead. Marked obsolete with NLog.Web 5.3')
警告の通り、
|
の
|
部分が古い仕様となったので、新しい
|
に変えてあげればよいらしい。
ただ、なにも考えずにやると logger.Debug とかで警告がでるので、
GetCurrentClassLogger() の取り付けを忘れないようにする
|
これで警告が消えて、今まで通り、nlog.config を読むことができる
あと、今まで通りにファイル名を指定したいときや、
パスの場所を指定したい場合は、
各オプションにパスやファイル名を入れればOK
|
]]>
先日のVisualStudioのアップデートくらいからだったか、
変数とかメソッドにマウスをポイントしても、
ピーロンってその内容が表示される吹き出しみたいなのが出てこなくなった。
他のPCではアップデートしてもそのようなことは起こらなかったので、
使っているPC単体の現象にも思える。
ただ、コーディング中は表示されないが、
デバッグ中なら変数に何が入っているか、
見たいな吹き出しを出すことができるので、
完全におかしくなった
という訳ではなさそうだ。
さて、解決の前に、このピローンって出てくる吹き出しのような名前について
最近はAIチャットが賢く答えてくれるので、
聴いてみたところ、全くこちらの意図に反する答えしかしてくれない
と思ったが、質問の仕方が悪かったようで、
コーディング中に と付け加えたところ、
ツールチップとかツールヒントとかいう名称を連ねて、
ついでにURLも付けてくれたので、
その辺から探ってみると、
どうやら
IntelliSenseの機能で
ヒント(クイックヒント)
と呼ばれるモノだと分かった。
正直Google検索よりbingかchatGPTくんに聴くことが増えた・・・
【Visual Studio】マウスカーソルをホバーすると表示されるヒントをキーボードショートカットから実行する
ここを読むとショートカットもあり、Ctrl+K、Ctrl+Iで出てくるらしいが、
残念ながら表示されない。
他のPCではちゃんと表示される・・・
メニューから呼び出すなら
編集 -> IntelliSense -> クイックヒント
やはりこのPCのVSの問題?
とりあえず、名称も分かったので、
それを元に探してみるがどれも有益な情報はなかった。
とりあえず、最後にここに書いてあるように
PC再起動からの立ち上げてリビルドもダメだったので、
最終手段のVisualStudioの修復インストールをしてみることに・・・
で
復活
ということで、どうしてもダメっぽい場合は修復インストールすることが
早い解決策っぽい
なお、設定などはリセットされるので、エクスポートしておくと良い
※エクスポート先もリセットされるので、必ずマイドキュメントなどに保存
追記230623
別の端末でも同じ現象が発生するようになった。
記憶をたどると、どうやらショートカットをVBからVSCodeに変えて、
さらにデバッグ時のショートカットをVBにカスタマイズしてしばらくすると
同じ現象が発生する感じがする。
試しにVBのキー配列に戻すと
この現象が発生しなくなり、再びピローン(クイックヒント)するようになった。
でもVSCodeのコメントアウト Ctrl + / が使いたいので、
もう一度VSCodeのキー配列に戻して
VBカスタマイズすると、この現象が発生しなくなった。
この状態でもうしばらく使ってみることにする
]]>
水路通報も出てきたので、
追加してみました。
前回と落下位置が同じなので、
同じ軌道を描く感じですかね。
24日はまずまずの天気なので、
もしかしたら見えるかもしれませんが、
とりあえず注意(?)点としては、
写真を見てもらえれば分かるとおり、
液体燃料なので、H-IIAやイプシロンのように雲は出ません。
※H-IIAは固体ブースターが付いているので雲が出ます。
表現としては、
ギラギラと光の玉が上がっていく感じです。
50〜80kmのところで
少しだけ雲が出ますが、かなりうっすらで、
やはり写真のようにほとんど写らないです。
五島から見た韓国ロケット 動画は過去の記事
関連記事
]]>
韓国ロケットのKSLV-2が5月に打ち上げするようです。
5月は比較的安定しているほうなので、
日本からでも見える可能性があります。
五島から見た韓国ロケット 動画は過去の記事
落下予想はまだなので、
そちらは分かり次第アップデートします。
関連記事
]]>
延期率を出したついでに
延期の中身を分類
大きくは天候か機器の故障や点検となります。
11年まではロケット本体の機器故障が目立っていましたが、
2012〜2018年にかけては、それもほぼなくなり、
オンタイムか天候不良による延期のみで、
最近は機器故障よりも設備故障による延期が少しずつ目立っている感じがあります。
機械の故障率に似ている感じですね。
あと気になるところでは、
Bも6号機のHTVで機器故障があったので、
H-IIやII Aの6号機、イプシロンの6号機、HTV6号機と
6番目くらいになにかあるのかなと感じました。
]]>
7年ほど放置しておりました、
延期率と晴天率を最新データを元に更新してみました。
このところオンタイム打ち上げが多かったため、
オンタイムと1日延期を含めると
半数近くがほぼ延期なく打ち上がる傾向にあります。
残りは2〜5日のところに収まっているので、
以前から書いていますが、余裕を見ると3日くらいは休みは確保した方が良さそうです。
延期日数(横)に対する打ち上げ回数を天候でまとめたグラフ
曜日別の晴天率は相変わらず週前半は良く、
週後半は悪い傾向にあります。
月別では1,2月と梅雨時はやはり天候に恵まれず
また、打ち上げ予定に対しての実績が
1,2,8,9月はあまり良い傾向にありません。
冬は冬型や氷結層が出やすく、
夏は台風による延期などが多いと考えられます。
とりあえず細かい分析は各記事をご覧ください。
]]>
ちょっとどの時点でこうなったのかはよく分からないが、
ソースの履歴を追う限りではVS2022のVer.17.5あたりがリリースされて、
私は2月の終わりくらいに、それにアップデートしたタイミングで、
NumericUpDownの極限の値をマイナス側にすると、
0にリセットされてしまうという不具合があったようで(?)、
マイナス設定しているすべてのNumericUpDownコントロールが0でリセットされてしまった。
とりあえず、最新のアップデートをかけてからはそのような現象は見られないっぽいのだが、
もし17.5をリリース当初に入れた方で、NumericUpDownをマイナス設定されている場合は、
再確認した方がよさそうである。
17.5以降のソース
明らかに初期化の部分が変更されている。
この辺で何かあったのかもしれない。
ざっと見た感じではリリースノートにはその辺はなさそう?
Visual Studio 2022 バージョン 17.5 リリース ノート
]]>
ちょっといろいろやっていて、
SharePointのサイトを開いたら・・・
申し訳ございません。このページに到達できません
!?!?
さっきは普通に開いたのに、なぜ?
と記憶をたどったところ、
どうも私がテスト的にサイトコンテンツの中で
新規にコンテンツを作ったりして試していたところ、
新規で作られたと勘違いして、次を消してしまったことが原因と判明した。
問題は、上のようにサイトページが開かないので、
どうやってもごみ箱にたどり着けないということ。
ごみ箱さえ見えれば復元が可能なはずなのに
管理画面で見てもサイトの一覧はあっても、
ごみ箱等はそれぞれのサイト内にあるので、
やはりサイトを復元しない限り無理な状態のようだ。
あとはできるか分からないが、
他のサイトを見るとごみ箱は共通しているようなので、
次の方法を試してみる。
まず、
のこの部分
/_layouts/15/AdminRecycleBin.aspx?view=5 |
が共通して付いているようなので、
開かない状態のURLの後ろに、このURLを取り付けてエンター・・・
やった!
ごみ箱はサイトのページに関係なく、表示されました!
あとはサイトのページを右クリックからの復元で
上のエラーがなかったかのように解消されました。
ということで、うっかりサイトコンテンツのサイトのページは消さないようにしましょう。
]]>
モスバーガーとやらのネット注文というのがあるらしいので、
ちょっと注文してみた。
支払い方法の中からとりあえず、PayPay(後払い)を選択して、
注文した商品は受け取ることができたのだが、
受け取った後も
支払い受付のままの状態が続いていたので、
本当に決済できているのか?
もしかしたらうまく決済できていなくて、
無銭飲食みたいになっていないか?
そのうち電話でもかかってくるのでは?
など少々不安が・・・
ネットでザックリ調べても、
あまり有用な情報(結果どうなったのか、どのくらいで完了するのか)は見つからなかったが、
共通する答えは、
しばらくすれば決済完了するので、放置しておけ
購入店から支払い完了やご注文受け付け完了メールが来ていれば大丈夫だ
みたいな感じだったので、
とりあえずレシートと完了メールは取っておいて
放置することにした。
確かにクレカ決済でもなかなか明細に上がってこないことがあるので、
おそらく同じなのだろう。
そして、放置すること2日
ようやく支払い完了の通知が届いた
ということで、ネットでPayPay(後払い)支払いすると
2、3日後に支払いが完了するらしい。
念のためレシートやメールは取っておいた方がよい。
]]>