つっても、非公開のを別につけているわけではない。
Copyright 1999- Jun Makino
2022/02 2022/01 もっと昔よくわかってないけど、これ、500メートル四方といっても実際には経度、緯度で切ってるみたいなので、セル座標を経度・緯度に変換できるんじゃないのかしら?
IEEE Solod-state circuit magazine に解説がある。メモリセルアレイとドライバのCMOSロジックを別ウェハにして貼り合わせると。
NAND でこんなのが実用になるのか。ロジックとDRAMとかなら割とできそうな。
んだけど、一方、現状のノイズの問題とかの話をきいてるとどういう問 題でいつになったら量子計算が実用になるのかあんまりみえてない気がするわ けで、うーん、みたいな。
優勝は誰の手に?スパコンの威力を社会課題の解決に活かす「NECスパコン・プログラミングコンテスト」最終審査
これ私全然わかってないので詳しい人に聞きたいんだけど、例えば 29ビットの量子コンピュータでできる素因数分解って最大29ビットの数までだよね?なので、「N=253の素因数分解」って253ビットということではないと思うんだけど、そうすると253って何?
まあ、AI 専用プロセッサはこの先生きのこる か、という話題はあって私はNOだと思うので、汎用HPCにも使えることは必要だと思う。
これは単純に、同じくらいの性能ならどっち買う?という話。行列でかいのしか性能でないとCNNも厳しいし。
GPGPU も、結局深層学習用途がでてくるまではゲーム用という主用途があったからハードウェアもソフトウェアも投入できてたわけで、始めからHPCだけだとそもそもあんなペースでチップ作れない。
まあでは AI と HPC でどっちがマーケットでかいかというとAIなんだけど、なので専用でいけるかというと専用の代わりに圧倒的にNVIDIAより価格性能比の電力性能比も高い(10倍くらい)ならいけるけど、2倍とかでは無理、という話になろう。
NVIDIA の次の製品だと同じだよね?と思っちゃうから。
これはつまり、ちょっと某所で話題になってた滅茶苦茶強力な行列演算ユ ニットを普通のCPUに統合すればそれがファイナルアンサーなんでは?という 疑問に対する答が SPR であるという話ではある。
少なくともそれがあってさらに別のGPUと組み合わせるって無理かつ無駄だろ?みたいな。
このアプローチの問題は何かというと、 LLC くらいで既に物理的に遠くてアクセスコスト(電力)が大きいので、そこまでの必要バンド幅が非常に小さいようなアプリケーション・アルゴリズムでないと性能がでない、ということ。
HPL はそうだし、NN は結構モデルによってはそうかもだけど、他のアプリケーションはそう上手くいかない。L2よりでかいローカルメモリつければ問題は解決するけどそんなことする?みたいな。
NVIDIA は2017年の V100 からHGEMM 専用回路がはいったわけで、それ以 降基本的にこれがないプロセッサは AI/HPC マーケットで商売にならない。
MN-Core は2016年に開発始めた時からGEMM 専用回路いれる設計で、なので V100 よりずっと高い電力あたり性能をV100と同じN12プロセスで達成できた。このころに一杯あったAI/DLむけプロセッサ開発プロジェクトはV100にけちらされた感じはある。
Transformer とかでも NN の構造を扱うのは少なくとも局所的には GEMM でいいのは変化なさそう?CNNみたいな自明な再利用性はあるんだっけ?学習の場合にはデータ間の並列性はある?
この辺あんまりよくわかってない。
とはえ、ハードウェア的には行列演算回路の通常の SIMD 演算回路に対する優位性があまりに大きいので(まあ半精度で32とかその辺までは)、これに載るようなアルゴリズムが圧倒的に性能がでる、ということにはなろう。
問題は人口知能は行列演算ユニットと共に生きてもらうのでいいとして汎用HPCである(まあポスト富岳FSの話ですね)。
これはそういうわけで色々検討しているんだけど、思った以上に色々なこ とが行列演算回路をある程度有効に使って実現できる。今のところ全然駄目な のが粒子系(短距離相互作用)とゲノム解析ででてくるDP。
DPはビット長短い加減算なので、まあ、実際の大規模データ処理でFPGAが 有効な例なはずで、Illumina の dragen は実際そういうものであろう。
粒子系短距離は、、、最近研究があるっぽいのは流体では GNN で場を学 習させるとか。MDで力の総和求めればいいなら、GNN というかそれこそ transformer でできる?計算量桁で増えるかもしれないけど効率100倍になる ならいいかも。
DRAM 作ってる会社は世界に(事実上)6社で、上位3社の Micron、 Samsung、 SK Hynix と下位3社の Nanya、Winbond、PSMC の間にはシェアで1桁程度の差がある。
Nanya は EUV で 1x と最先端に向かう。
Winbod は 求人情報には「ダブル、クアドラプルパターニングの開発経験【歓迎】」と書いてあってそういうことなのみたいな。
私多分話をしたことない。本郷の松本楼で見たことがある。エジプト学の吉村作治となんか大学を作るみたいな話をしていた。20年以上前かな。
(3/24 追記) 今のところ幸せになっている。
イギリスは2022年になってから統計上の感染者は段々減ってて日本より1桁くらい少なくなってるんだけど、死者は日本とあんまりかわらないくらいで、超過死亡は日本より若干多いくらい。実態の感染者は日本より若干多いくらいであろう。
なので日本でも同じような問題がおこっていそうだけど、どっかにデータ あるのかしら?学校基本調査には長期欠席の統計しかないっぽい。
「なんか」はキーボードマクロで書いてあって、それを command-execute で実行するという大変駄目な感じのコード、、、
「日電の NEAC-2201 の論理設計は私 1 人でやり」強い。
というかその K の由来であるところの某先生にとか。
「京」での石山さん・似鳥さんの GReeM は1粒子 2.5e-11 sec/particle なので実はまだ「京」のほうが速い。明らかにゴードンベル賞論文だけどこれだとちょっと厳しいよね、、、
ハードウェアとしてはちゃんと速くできる余地はあると思うんだけど。
そもそもそんなにみんなマスク外すんだろうか。
まあでもマスクはともかく会食とか宴会は結構普通にやるようになってるからそっちの影響はみえてきそうではある。
なぜ Intel がここまで GPU/アクセラレータで上手くいかないのか、とい うと、結局いつまでたっても CPU に SIMD ユニットと行列ユニットを沢山つ けて、L1Dの幅広げたものをさらに階層キャッシュで沢山並べれば GPU になる、 という認識だからだと思う。
階層キャッシュ自体が絶対に駄目とはいわないが、コヒーレンシは切らな いといけないし、キャッシュ以外に near FPU の大きなメモリが必要で、 2010年代以降ある程度上手くいった HPC プロセッサは大体そうなっている。
炊事門をでて山手通りをわたってちょっと右にいったところにある喫茶店だったような。 記憶と地図を一致させるとカフェフレンズだ。ここ今もあるよね。
Twitter と照合すると、「原子炉冷却機能が停止=福島第一原発」のニュースは天文台にいた時にみてて、それから帰宅したんだな。
で、帰宅途中ラジオきいてたら、電源車が到着したけど接続できませんと かそういう話をしていた。日本で原発の事故が本当におこってしまうんだ という非現実感を感じつつ、風向きを確認して今晩は寝ても大丈夫だろうと思った。
翌12日になるとネットは「メルトダウンしません」にあふれていて、この人達本当になにも知らないで発言しているんだなあと思った。
まあそういうものだ。
で、同じようになにも知らない人達が、再稼働とか60年まで延長とか進めているわけである。
というのはワインバーグの本のどれかにグッゲンハイム美術館を例にして 書いてあった。前例がない形の建物を作るともちろん前例がない問題が起こる、 という話。
もちろん、それでも色々検討すれば予見できる問題もあるし、今なら シミュレーションで見つけられる問題も一杯ある。でも、ほとんどの場合、 シミュレーションって、せいぜい今までに起こったことがある問題を 見つけられるように設定されてるだけである。
使ってる部品全てとそれぞれのすりあわせまで物性から疲労破壊まで考慮して全体シミュレーションができればシミュレーションで大体わかるかもしれないけど、それには多分今まより100万倍くらい速い計算機がいるんじゃないかなあ。
で、見つかったものへの対策も、ちょっと時間がたつとどんどんいい加減 にしたり、コストカットのため積極的にやめていったりするのが我々である。
なぜ大事故が起こるか?というのは本質的には単にこういう話で、 我々は事故が起こらなかったら事故が起こるところまで手を抜くように できている。
LSI の設計とかだとわりとこの辺厳密で、 DRC にしてもタイミング収束 にしてもSIPIにしても、ルールにひっかかってるけど作ったら多分動くからやっ ちゃえ、ということはあんまりない気がするんだけど、私がかかわったところ がそうなだけなのかしら?
まあ現物ができたあとは動いたところで動かすんだけど。で、駄目なら交換だし。
で、現場で壊れるのを防ぐためできることって要するに予防的交換で、 例えば制御棒がトラブル起こすような原子炉は捨てる、ということである。 それができないのであれば事故は起きる。
まあだから、原子炉も何万基とか量産して100回ぐらい事故おこせばそのあとも1000基に1回くらいの事故にできるかも(地震とかなかったとして)しれない。
あるいは、ちゃんと受動安全性がある、つまり電源とか全部なくなった時でもメルトダウンしない仕掛けがある原子炉に全部変えるとか。これは本来最低限しているべきことであろう。AP1000とかはそういう設計なわけで。1基2兆円超えるみたいだけど。
アメリカ側の論理というか名目は「軍事利用される先端技術は全部中国から排除するべき」だけど、もちろん現在半導体は民生利用が軍事よりはるかに進んでるのでそれだと民生が全部駄目みたいになっちゃうというか現になってるわけで。
世界を不安定にしている要因はどこかみたいな、、、
まあその、一般に研究者というお仕事はまともな人間には向いてない気もするがそれはそれ。
6個ではなく7個だったと判明した。
もう駄目だ。
Zoom が2個、Teams が3個、あと google meets と webex が1つづつ。
とはいえ東洋経済ページでも東京都の実効再生産数が 0.97 とかで、1ヶ 月前は0.88 とかだったのとは状況が違う。外挿すると来週には1になっちゃう。
tw 眺めていると、このまま減って収束して欲しい、みたいなことを書い てる人が結構多くて、原理的にそんなことはない、というのがあんまり理解さ れてないんだなと。
現状では、感染してできた免疫もワクチンも数ヶ月で効果ゼロに近くなるので、決して収束しない、といえる。もちろん、弱毒化はひょっとすると起こるかもしれないけど、現状では強毒化も同様に起こりえる。
欧米諸国の新規感染者数と死亡者数の推移 欧米諸国の新規感染者数と死亡者数の推移 のグラフ見ると、この1年で新規感染者数は何故か減ってるけど死亡者数はそれほど減ってない。
現状ではちゃんと数を数えなくなったせいなのか、実は強毒化しているのかもわからない。
まあ、責任境界はあるのでこっちがだしたロジックがあっててチップ内の 物理設計とかアナログ的な問題とかだとベンダさんにお願いして、になって、 実際そういうケースは結構あるんだけど。
ちょっと別の話だけど、汎用プロセッサって、わりと勝ち負けがついて 2000年代以降だと x86 しかなくて AMD が 64ビット化したK8でちょっとよかっ た以外は Intel の一人勝ちだったのが、 Skylake 以降の Xeon は Zen に 勝てないだけでなく ARM にも、みたいな状況になってる。
もちろんこれは Intel が半導体プロセス開発で完全に失敗してまだ回復 できてないからではある。あるんだけど、AMD では K8、Zen に Jim Keller がかかわっていて、AMD は彼がかかわったものでしか Intel に勝ててない。
これは、開発プロジェクトではリーダーがいかに重要か、という話であろ う。1960年代から70年代がSeymour Cray の時代であったくらいには 2000年代、2010年代は Jim Keller の時代だったのかもしれない。
で、まあ、開発プロジェクトってわりとなんでもリーダーが重要、という かなんとかリーダーが人の意見をきいてまとめて、とかでは駄目で自分で こうだ、というのがあって、なおかつそれが理屈というか特に物理法則に あってないといけない。
日本の1980年代までの「開発」プロジェクトって「こうだ」が結局 アメリカにあるこれを安く作る、とか、これまで作ってきたこれをちょっと改 良する、とかだったのがほとんどなわけで、それは目標が明確なので リーダー不在でもできた。
で、90年代以降日本企業は何をやってたかというと製造拠点を中国とかに うつすこと、要するに中国・韓国・台湾が日本、ひいてはアメリカを目標に キャッチアップするのを助けてきたわけで、まあ日本の産業が空洞化するのは 当たり前ではある。
今は台湾・韓国にキャッチアップすることができるようになるまで経済を 後退させようとしているようにみえる。自分で新しいことをしないためには まず外国に負けないといけないみたいな。
日本のこの30年間の停滞の根本的な原因って多分このあたりで、新しいこ とに対する集団としての恐怖心が問題なんじゃないかなあ。
で、Ubuntu Software で Zoom Client いれたら何故か最初は動いてたのにリブートしたら Computer Audio に接続、のところでフリーズするようになった。
結局、 Zoom のサイトから最新の deb を落として apt --fix-broken install zoom*deb でいれたほうはちゃんと動いている模様。仮想背景も使える。
引用: 国立研究開発法人宇宙航空研究開発機構(JAXA)は、2023年3月7日10時37分55秒(日本標準時)に、種子島宇宙センターから先進光学衛星「だいち3号」(ALOS-3)を搭載したH3ロケット試験機1号機を打ち上げましたが、
引用:第2段エンジンが着火しなかったことにより、所定の軌道に投入できる見込みがないことから10時51分50秒にロケットに指令破壊信号を送出し、打上げに失敗しました。
これ、文の構造が、「機構は1号機を打ち上げましたが、ロケットに指令破壊信号を送出し、打上げに失敗しました」つまり、「打ち上げましたが、打上げに失敗しました」になっている。なんか変。
本来なら1号機は試験機だろうから、「1号機の打ち上げ試験を行いました。今回の打ち上げ試験は失敗でした」とかであれば日本語としておかしくはないんだけど、、、
なんか、「名を正」せてない感じがして、その辺に問題の根源があるかもと。
「名を正さん」は論語子路第十三之三。
「また、別の指導学生に対しても自分の言うことに従うように繰り返し執拗に 言い含め、反論や意見は「言われるまま、言う通りにやったらいい」と封印し、 精神的に追い込んだ結果、学生は「ストレス反応(抑うつ状態)」を患った。」
指導のしかたにも学生の受け止め方にも色々あるので、上手くいってない 時には別の人に、というのがわりと大事な気が。まああらゆる学生と上手くいかない人はそういうものだし、逆もあるだろうけど。
だからメモリインターフェースとしては駄目だと思いますです。ノード間とかペリフェラルをとかはOK。
あああ、原稿かけてない。あと色々できてない。すみません>多方面。
まあ電気配線する限り UCIe の PCIe に対する関係は HBMx の DDRx に対 する関係でしかないわけで、数百ワットの電力では数 TB/s までしかいかない。
これは本数とかの話ではなくて消費電力的に無理(チップ自体がすごく小 さくないと)。
なので、CPU とメモリとか CPU とアクセラレータのインターフェースと しては UCIe チップレットは大変素晴らしいが、アクセラレータとメモリのイ ンターフェースにこれ使えると思うと、まあ直近はいいけど2世代あとに死ぬと思う。
API からはできるが tweetdeck からはというかブラウザからできない。なんだこれ?