
ZAF 2022年7月27日
<本日のテーマ>
ぼちぼちと、今日も一歩
目次
YouTube のアーカイブ・ビデオはこちら
(
https://youtube.com/live/f8r-4HZs02c)

(前座)
さて、みなさま、
この一月、いかがお過ごしでしたでしょうか?
さて、みなさま、
この一月、いかがお過ごしでしたでしょうか?
- ぼくは、いろいろ、大変だったです。
- 今日の前座は、この一月を、ちょっと振り返ってみようかなと思います。
- この大変な状況から、
それでも何か学びとることがあれば、きちんと学びとって、
これからに生かしたい、と
- この大変な状況から、
- 始める前に、有名な作家の有名な一言を、引用しておこうと思います。
Courage is grace under pressure
勇気とは、困難な状況化における気高さである
勇気とは、困難な状況化における気高さである
- さて質問です。これはだれの言葉でしょうか?
正解は、
Ernest Hemingway
アーネスト・ヘミングウェイ
アーネスト・ヘミングウェイ
- ぼくがこの言葉を知ったのは、ツイッターでした(だめだこりゃ)
- ということで、ぼくの、この一月を、振り返ってみたいと思います。
- ZENKEI AI ポッドキャスト
(https://zenkei.seesaa.net/)- 粛々と、週1ペースを堅持!
- Twitch
(twitch.tv/kengoichiki)
- 「エコー問題」解決!
- 音楽と数理 🎼 ♾ ポッドキャスト
(anchor.fm/music-and-math)
- ペースダウン気味(それでも週1でがんばってる)
- WordPress ページ
(music0math.wordpress.com)
- つまり、前回の ZAF2206 開催(2022年6月29日)から
今日(2022年7月27日)までの間のことですが
- 6/30 (Thu) RX8 買った
(https://twitter.com/ichiki_k/status/1542310683362361344 - 7/6 (Wed) 仙台の悪いニュースその1
(https://twitter.com/ichiki_k/status/1544625208157384704) - 7/7 (Thu) 仙台の悪いニュースその2
(https://twitter.com/ichiki_k/status/1544869272866148352) - での、 7/8 (Fri)
- 朝は、コロナ増えてきてるぞっと思ってて
(https://twitter.com/ichiki_k/status/1545227087564271617) - お昼にニュースを目にして
(https://twitter.com/ichiki_k/status/1545248696266137601) - かなり動揺しているが、シブがき隊を口ずさみながら正気を保とうとする
(https://twitter.com/ichiki_k/status/1545344405694869504)
- 朝は、コロナ増えてきてるぞっと思ってて
- 7/10 (Sun) は、そうした中での選挙だが…
(https://twitter.com/ichiki_k/status/1546092105046839296) - 7/11 (Mon) 小さな、よいニュース
(https://twitter.com/ichiki_k/status/1546341889854836736) - 7/12 (Tue) は、音楽に救いを求めたのかな
- Piano Jazz に Robert Glasper
(https://twitter.com/ichiki_k/status/1546826365680644096) - Piano Legends を YouTube に見つけた
(https://twitter.com/ichiki_k/status/1546827012597514241)
- Piano Jazz に Robert Glasper
- 7/13 (Wed) これ、知ってた?
(https://twitter.com/ichiki_k/status/1547105650890932224)- ドヤ?
- ドヤ?
- 7/15 (Fri) には
- しばらく注視してた stopcovid サイトが再び真っ黒に
(https://twitter.com/ichiki_k/status/1547747482004000768) - 今回の出来事から、教訓を学びとろうとしたり
(https://twitter.com/ichiki_k/status/1547789669420924928,
https://twitter.com/ichiki_k/status/1547790081481932802,
https://twitter.com/ichiki_k/status/1547792270908600321) - あと、いつも言ってる「追悼版ビジネス」嫌いのコメント
(https://twitter.com/ichiki_k/status/1547873191561170944)
- しばらく注視してた stopcovid サイトが再び真っ黒に
- 7/16 (Sat) がんばって Twitch したぜ
(https://twitter.com/ichiki_k/status/1548170571258929152) - 7/18 (Mon)
- 現状を分析(するともなく)してみたり
(https://twitter.com/ichiki_k/status/1548843417178112000) - みんな、基本、冷たいよね、と
(世の中、後出しジャンケン野郎ばっかだよねぇ)
(https://twitter.com/ichiki_k/status/1548843988819804160) - なにができるか、と考えたり
(https://twitter.com/ichiki_k/status/1548917688856346624)
- 現状を分析(するともなく)してみたり
- 7/20 (Wed)
- アナーキーな宗教(?)
(ポッドキャストでもしゃべったとおり、ぼくは今年に入ったくらいから仏教ブームが来てる)
(https://twitter.com/ichiki_k/status/1549599666647445504) - なにがヤバいのか、振り返りつつ
(https://twitter.com/ichiki_k/status/1549623803487014912)
- アナーキーな宗教(?)
- 7/21 (Thu)
絶対予定不調和(あれね、即興的人生というか、セレンディピティというか)
(https://twitter.com/ichiki_k/status/1550024553866620928) - 7/23 (Sat)
- 金沢経済新聞
(https://twitter.com/ichiki_k/status/1550641535305551872)- これ、ツイッターで話題になってましたよね
(https://twitter.com/FurattoKanazawa/status/1550085957004578817)
- これ、ツイッターで話題になってましたよね
- 当社比的に、前回のピークをかる〜く超えて行った
(https://twitter.com/ichiki_k/status/1550643415721070592) - 「正語」「正語」と唱えたり
(https://twitter.com/ichiki_k/status/1550678305866940416)
- 金沢経済新聞
- 7/24 (Sun)
この一月を振り返ったり
(https://twitter.com/ichiki_k/status/1551146220357582848)
- 6/30 (Thu) RX8 買った
結局、今ここでオレは、何が言いたいのか?
世の中には、分業していいことと、悪いことがある
ということを改めて言いたい。
ということを改めて言いたい。
- ぼくの日記のまとめのページ
(https://kichiki.github.io/diary/summaries.html)
そのなかの「教育について」
(https://kichiki.github.io/diary/summaries.html#education) - そのなかのエントリーとして
「6/3/2003: 分業してはいけないもの」
- (引用)
- 分業してはいけないものは、あると思う。
- 考えること (ってのは一般的すぎるが) とか、 教育とか
- 本当の意味で考えることを学ぶ高等教育について、 その高等教育のプロってのはダメなんではないだろうか
- 政治のプロってのも、何か間違っている気がするが、どうなのかな
- 食べるために政治をしては、やっぱりいけない気がする
(結論)
自分の人生に、手を抜くな
ということかな
自分の人生に、手を抜くな
ということかな
オレは、オレの人生に、手を抜いて無いか?
(自問自答 - つまり、ブーメランってやつね)
そんなこといっても、
面倒じゃない?
面倒じゃない?
そりゃ、もちろん、面倒だよ、ね
- 実際問題、
- カルトとか、マルチとか、詐欺とか、あれやこれや、 いちいち気にしながら生きていくのは
- 音楽聴くにも、例えば、チックのこと考えると
サイエントロジのこと考えるし
- どこまで関わってたのか?とか
- そういえば、その昔の音楽雑誌『Jazz Life』には サイエントロジの宣伝載ってたからね
- (チックは、しかし、何考えてたんだろうな?)
- この間も Lee Konitz の自伝読んでたら、 彼もときどきサイエントロジのセミナー受けてたとかあったり
- キースはグルジェフで、ハービーとウェインは池田大作でしょ、 あー面倒くさい
- 金沢に来て10年以上なるけど、
- その間、大人のサークル活動みたいな感じで 「英会話サークル」やってきた。
- 貸し会議室とか借りてた頃、
- 隣でやってる集まりが、宗教関係の人たちが(そうとは言わずに) 交流会みたいなのやってたり、
- お堅いところに勤めてる若い子が、 副業とかいってマルチやってたり、
ならば、どうするか?
「自分で考える」というスキルは大事
- 科学的視点や科学的方法は、
やっぱり、なんだかんだ言って、大事だと思う
- いまの日本の、要所要所に、一番欠けているところだと思う
- 科学的視点や科学的方法とは、何か?
- 結局のところは「再現性」に拠っているところかな
- 誰でも(素人でも)手順通り行えば、 同じことができるという情報の蓄積
- 「魔法」とか「アート」とかいうものと、言ってみれば逆のもの
- エンジニアの人には、「属人化」と言えば、何が悪か、分かると思う
- ここから必然的に(自然に)
- 情報の公開、共有 (再現性を確認するには、その手順が分からないとできない)
- 判断基準の明確化 (威張ることで黙らせる「権威」の排除)
- この辺が、いまの日本の、要所要所に、一番欠けているところだと思う (パート2)
(結論)
いまの日本には
いまの日本には
科学的視点 や 科学的方法
が求められている!
つまり
ZENKEI AI FORUM
が求められている!
- はい、我田引水でした。
- とはいえ、半分以上は本気で言ってます。
前座を終わる前に、
ひとことだけ
ひとことだけ
- コミュニティ志向に関して
- 「ファンダム・エコノミー」とか、 最近、フォーラムでも取り上げているトピック
- 高須正和さん翻訳の本『遠くへ行きたければ、みんなで行け』
- この本の原題は "People Powered"
- 力を持った人々、 人々に力を、と言った感じのニュアンス
- この本の最初の部分で明確に、
このテクニック(スキル)は、
カルト的な集団においても利用されうるもの - 今の状況を考えると、肝に銘じておきたいポイントです。
- この本の原題は "People Powered"
- しかし、人の弱みに付け込む集団の活動ってのは、なんとかならんかなぁ
- 多様性を尊重する(個人的要素の強い人々)が、 どうやって集団になってかかってくる相手に、対抗していけば、 いいんでしょうね?
- 脳内実験的に、 SF を考えたりしますが、
スタートレックというのは、そういう環境を提供してくれていると思う。 - 新作のピカードでもテーマになった「ボーグ」が、 なんかやっぱりいつも頭によぎる。名案はない。
パート1 この1ヶ月の AI の話題から
人事的な話
- https://twitter.com/shinya_elix/status/1547423905912356864
Andrej Karpathyがテスラを退社か〜。具体的に次に何をするかは特に決まっていないとのこと。
- https://twitter.com/goodfellow_ian/status/1544638709039091717
I'm excited to announce that I've joined DeepMind! I'll be a research scientist in @OriolVinyalsML 's Deep Learning team.
DALLE 関係
- https://twitter.com/wayama_ryousuke/status/1549911872513589248
dalle2有償ベータ公開。最初の月だけ50回、その後毎月15回まで無料クレジットで生成できるように。 1クレジットで1回(生成で4枚、バリエーションで3枚)。15ドルで115クレジット購入できる。 無料、有料問わず商用利用可能。プロンプト探索がはかどりそう https://openai.com/blog/dall-e-now-available-in-beta/
- https://twitter.com/VictoriaCarr_/status/1549428789951741955
Found a tool that converts any scientific jargon to plain English built on GPT-3. Having a play around and it's pretty good! https://explainjargon.com
- https://twitter.com/fladdict/status/1548297398715580418
AIに描かせたポスターの比較。すでに構図やリズムを理解しつつある。5年後にはどうなってしまうのか。 ・スイスモダンのネコ ・ダッチモダンのネコ ・ドイツ構成主義のネコ ・ロシア構成主義のネコ #dalle2
- https://twitter.com/gijigae/status/1546295641583718401
GPT-3を利用して正規表現を書いてくれるサービス(👉https://autoregex.xyz/home)が登場😮。 いくつか試してみたけどかなり優秀👏。 これで正規表現を書くハードルも格段と下がる。無料で使えますのでぜひ!
- https://twitter.com/masafumi/status/1544693645080956928
Facebook AI Researchからえらいもんきたなぁ。 No Language Left Behind: Scaling Human-Centered Machine Translation https://research.facebook.com/publications/no-language-left-behind/ Code https://github.com/facebookresearch/fairseq/tree/nllb
- https://twitter.com/AntoineBordes/status/1544739329590845441
Today we open-source No Language Left Behind: a single model that translates 200 languages. Game changer for people that could not access information because of language barrier. Part of the AI system already powering 25 billion translations every day across @meta platforms!
- https://twitter.com/MetaAI/status/1544730979964784643
(1/4) Results from our No Language Left Behind (NLLB) project are not only advancing state-of-the-art in machine translations, but also enabling us to help improve translation systems inside and outside of Meta. Here’s how:
- https://twitter.com/MetaAI/status/1544670269469507585
Check out our latest breakthrough in machine translation that Mark Zuckerberg just announced. We built and open sourced a state-of-the-art AI model that now translates between 200 different languages.
- https://twitter.com/jaguring1/status/1544154692028354560
AIは汎用性が高まり始めてます(今月はPaLMをベースにMinervaも登場) AI開発の新たなパラダイム「基盤モデル」とは https://blog.recruit.co.jp/data/articles/foundation_models/ 『基盤モデルとは「大量・多様なデータから高い汎化性能を獲得したAI」のことで、 2021年にスタンフォード大学のワーキンググループによって命名されました』
- https://blog.recruit.co.jp/data/articles/foundation_models/
- https://twitter.com/shion_honda/status/1543843594691551232
GPT-3やDALL-Eなどで近年注目を集めている「基盤モデル」について、 現時点でわかっている性質や代表的なモデル、課題と将来の展望をまとめました (@kaggle_araisan さんとの共同執筆)。 できる限り専門用語を排して書いたので、多くの人に届くと嬉しいです。 https://blog.recruit.co.jp/data/articles/foundation_models/
- https://blog.recruit.co.jp/data/articles/foundation_models/
未整理
- https://twitter.com/_akhaliq/status/1550865091771465728
Omni3D: A Large Benchmark and Model for 3D Object Detection in the Wild abs: https://arxiv.org/abs/2207.10660 github: https://github.com/facebookresearch/omni3d project page: https://garrickbrazil.com/omni3d/
- https://twitter.com/elepiech/status/1550123962301960192
Three words: Markerless Motion Capture 🤯 This is a 9-person #mocap test, all WITHOUT suits! Happy I have the chance to experiment with tools like http://Move.ai. I'm even more excited to see how these tools can be used to democratize 3D content creation.
- https://twitter.com/_akhaliq/status/1550454957161201669
a @Gradio Demo for CogVideo: Large-scale Pretraining for Text-to-Video Generation via Transformers is now on @huggingface Spaces by https://huggingface.co/hysts demo: https://huggingface.co/spaces/THUDM/CogVideo https://huggingface.co/spaces/THUDM/CogVideo
- https://twitter.com/psyth91/status/1550466746301177856
📢Looking for real-time drivable volumetric avatars? Check out out #SIGGRAPH 2022 paper, DVA!! We extend Mixture of Volumetric Primitives [Lombardi+ 2021] to articulated human bodies to enable real-time/high-fidelity rendering of clothed human! PDF: https://arxiv.org/abs/2207.09774
- https://twitter.com/shiropen2/status/1550264836852174848
手書きした絵コンテの人物画を3Dキャラクターに自動変換する「Sketch2Pose」 不自然なポーズも自動修正 https://levtech.jp/media/article/column/detail_105/ 手書きスケッチの2D人物画から3Dキャラクタポーズを再構築する。 身体部位の長さや関節位置がおかしいなどのバランスが取れていない絵でも 自然なポーズに補正し再現する。 https://levtech.jp/media/article/column/detail_105/ http://www-labs.iro.umontreal.ca/~bmpix/sketch2pose/
- https://twitter.com/ogawa_yutaro_22/status/1549858278699663360
DeepMindより。 Transformerについて、丁寧に解説し直したサマリーペーパーです 分かりやすい構成でした Formal Algorithms for Transformers https://arxiv.org/abs/2207.09238 Formal Algorithms for Transformers Mary Phuong, Marcus Hutter
- https://twitter.com/luisenp/status/1549781249652310016
Happy to release Theseus today, the result of months of effort with an amazing team of collaborators! https://sites.google.com/view/theseus-ai/ Theseus makes it easy to include structured optimization problems and second order optimizers as differentiable layers in your end-to-end architectures. https://sites.google.com/view/theseus-ai/ https://twitter.com/mhmukadam/status/1549773856738615297 Thrilled to release Theseus, a library to build custom nonlinear optimization layers in PyTorch. https://sites.google.com/view/theseus-ai Nonlinear least squares is at the heart of many robotics and vision problems. Now we can add such structures in our end-to-end architectures.
- https://twitter.com/_akhaliq/status/1549841365814632452
Highly Accurate Dichotomous Image Segmentation abs: https://arxiv.org/abs/2203.03041 project page: https://xuebinqin.github.io/dis/index.html Gradio Demo: https://huggingface.co/spaces/ECCV2022/dis-background-removal https://huggingface.co/spaces/ECCV2022/dis-background-removal
- https://twitter.com/SergeyTulyakov/status/1549227157120880640
Wondering how to run NeRF fast? Convert them to light fields! In our #ECCV2022 paper, R2L, we train a student network that evaluates the whole ray once, and thus avoids costly sampling, making it 30x faster. Besides it also shows better fidelity that the teacher network.
- https://twitter.com/eozakharov/status/1549110914754007041
Am very excited to share our new work on realistic avatars, which was recently accepted to ACM Multimedia! 😊 Huge props and congratulations to Nikita @NikDrob23 , you did an amazing job! More results on our project page: http://bit.ly/3yR6w2p https://samsunglabs.github.io/MegaPortraits/
- https://samsunglabs.github.io/MegaPortraits/
- https://twitter.com/_akhaliq/status/1548952855800946689
MegaPortraits: One-shot Megapixel Neural Head Avatars abs: https://arxiv.org/abs/2207.07621
- https://samsunglabs.github.io/MegaPortraits/
- https://twitter.com/Maxwell_110/status/1548106389012336640
今週末は時間を確保して YOLOv7 の論文を読みたい 📝 YOLO は一種のブランドのようになっちゃっていて,海賊版みたいなのが横行している状況 でも,どうやら今回は official っぽい https://github.com/WongKinYiu/yolov7 Redmon が引退した今,何をもって official と判断するのかはよく分からないけど
- https://twitter.com/radamar/status/1548108083015979009
Here's an experimental drawing tool I made to interact with the Text2Human generative model capable of generating humans with clothes and textures. Playing with it and pretending to be a fashion designer is fun. by @Jiang_Yuming et al. @huggingface https://huggingface.co/spaces/CVPR/drawings-to-human
- https://twitter.com/_akhaliq/status/1547762012050010116
i-Sim2Real: Reinforcement Learning of Robotic Policies in Tight Human-Robot Interaction Loops abs: https://arxiv.org/abs/2207.06572 project page: https://sites.google.com/view/is2r
- https://twitter.com/liuziwei7/status/1547790220547870721
#ECCV2022 We propose Relighting4D, which enables free-pose and free-viewpoint relighting from only monocular videos under unknown illuminations. Code and models: https://github.com/FrozenBurning/Relighting4D
- https://twitter.com/hardmaru/status/1547758643155980288
Can your ML agent trained to play normal chess, also play this variation of “Chess on a really big board” without any retraining?
- https://twitter.com/80Level/status/1547196647972691971
Meta presented Dressing Avatars – photorealistic appearance for physically simulated clothing. The clothes show both realistic clothing dynamics and photorealistic appearance learned from real-world data: https://80.lv/articles/meta-presented-photorealistic-clothing-for-avatars #meta #art #3dart #research
- https://twitter.com/_akhaliq/status/1546504056709042176
cool @Gradio Demo for CVPR 2022 papers on @huggingface Spaces by https://huggingface.co/hysts demo: https://huggingface.co/spaces/hysts/CVPR2022_papers
- https://twitter.com/ImAI_Eruel/status/1546462423426932736
スタンフォード大の教授らが書いた意思決定アルゴリズムに関する700ページの書籍が公開されています https://algorithmsbook.com 著者は私の研究分野(強化学習)でも有名な方だったので,期待して読んでみたところ,まさにこれだ!という内容でした ベイズ,強化学習,探索,ゲーム理論等全部詰めです
- https://twitter.com/twominutepapers/status/1546156393371209729
Watch This Chair Grow Out Of Nothing! 🐲 ▶️Full video (ours): https://youtu.be/19gzG-AsBNU 📜Source paper: http://rgl.epfl.ch/publications/Vicini2022SDF
- https://twitter.com/wayne_wu_0503/status/1546366934937006080
We have released the code of Generalizable Neural Performer! Check out the code here: https://github.com/generalizable-neural-performer/gnr
- https://twitter.com/_akhaliq/status/1546298507631284228
More ConvNets in the 2020s: Scaling up Kernels Beyond 51 × 51 using Sparsity abs: https://arxiv.org/abs/2207.03620 github: https://github.com/VITA-Group/SLaK pure ConvNet model, smoothly scales up the kernel size beyond 51×51, while achieving better performance than Swin Transformer and ConvNeXt
- https://twitter.com/hila_chefer/status/1545740385615486976
[1/n] @eccvconf #ECCV2022 paper thread! 1. Image-based CLIP-Guided Essence Transfer (TargetCLIP)- we extract the essence of a target while preserving realism and source identity. 2. No Token Left Behind- we use explainability to stabilize the unreliable CLIP similarity scores. https://twitter.com/_akhaliq/status/1452809465313603584 Image-Based CLIP-Guided Essence Transfer abs: https://arxiv.org/abs/2110.12427 github: https://github.com/hila-chefer/TargetCLIP new method creates a blending operator that is optimized to be simultaneously additive in both latent spaces
- https://twitter.com/fffiloni/status/1545381857797226496
Thanks to the help of @abidlabs , i made my first @gradio demo and my first @huggingface space forked from the FILM: Frame Interpolation for Large Scene Motion demo by @_akhaliq It uses SKETCHES as inputs instead of pictures 🤗 try it : https://huggingface.co/spaces/fffiloni/sketch_frame_interpolation
- https://twitter.com/liuziwei7/status/1545422464930394112
We have released, CelebA-Dialog, a large-scale high-quality face dataset with rich multi-modal annotations: https://github.com/ziqihuangg/CelebA-Dialog - 30K high-res face images with seg masks - Fine-grained attributes (e.g. different degrees of smile) - Textual descriptions and editing requests
- https://twitter.com/_akhaliq/status/1545450579685687296
The ICML 2022 organization on @huggingface is now accepting models and datasets as well as @Gradio Demo submissions, deadline to submit is July 31st, 2022 (AOE Time Zone) Join the ICML 2022 organization here to get started: https://huggingface.co/organizations/ICML2022/share/BpynfJtfsOTktlmXYoKNqqCnyufKLFXuay
- https://twitter.com/marko_mih/status/1545290974359961601
🥳Excited that our KeypointNeRF is accepted @eccvconf! #ECCV2022 KeypointNeRF reconstructs unseen volumetric avatars from 2-3 images without retraining and generalizes to in-the-wild captures. More info https://markomih.github.io/KeypointNeRF w @aayushbansal @MZollhoefer @SiyuTang3 @psyth91
- https://twitter.com/naotokui/status/1544897167235895296
MITの講義、Deep Learning for Art, Aesthetics, and Creativity が オンラインで見れる!素晴らしいゲスト講師陣。僕も勉強させてもらおう。 https://ali-design.github.io/deepcreativity/
- https://twitter.com/ibaiGorordo/status/1544910517760069632
YOLOv7 ONNX Conversion (Google Colab) https://colab.research.google.com/drive/1733xwaETLhAJguRKDqhjgPWf7a2NaOro?usp=sharing ⚠️Not tested⚠️ It uses the u5 branch (yolov5 compatible) for the conversion.
- https://twitter.com/_akhaliq/status/1544894929331261440
DCT-Net: Domain-Calibrated Translation for Portrait Stylization abs: https://arxiv.org/abs/2207.02426 project page: https://menyifang.github.io/projects/DCTNet/DCTNet.html
- https://twitter.com/_akhaliq/status/1544844431752298498
SNeRF: Stylized Neural Implicit Representations for 3D Scenes abs: https://arxiv.org/abs/2207.02363 project page: https://research.facebook.com/publications/snerf-stylized-neural-implicit-representations-for-3d-scenes/
- https://twitter.com/jun40vn/status/1544607084129398785
Liquid Warping GAN with Attention は、3つのGeneratorと3つのDiscriminatorから 構成されるネットワークを使って体全体のモーション転送を行う技術です。 これは、PSYの「That That」の動画に合わせて、西郷さんの銅像にダンスを させているところです。 ブログ:http://cedro3.com/ai/ipercore/
- https://twitter.com/paperswithcode/status/1544303944402436099
🔥Top Trending ML Papers of the Month Here is a thread to catchup on the top 10 trending papers of June on @paperswithcode. ↓
- https://twitter.com/jaguring1/status/1544257946963820545
DeepMindのAI研究(DeepNash) 今まで数多くの研究者がゲームを攻略するAIを探求することで, 汎用人工知能へ至ろうとする方針で頑張ってきた。 今回は、複雑な不完全情報ゲームである「Stratego」でゼロから人間のトップレベルまで到達。 囲碁よりも10^175倍も巨大なゲーム木 https://arxiv.org/abs/2206.15378
- https://twitter.com/shiropen2/status/1543740223217369088
文章から「3Dアバター」と「動き」を自動作成するAI シンガポールと中国のチームが開発 https://itmedia.co.jp/news/articles/2207/04/news036.html 例[座る太った力士]の文章から力士の静的3Dモデルと座る動きをOpanAIの CLIPベースモデルAvatarCLIPでゼロショット生成。 [腕を振り上げる痩せた忍者][議論する背が高く痩せた女性兵士]等
- https://twitter.com/liuziwei7/status/1543610523400503296
We have released, DeepFashion-MultiModal, a large-scale high-quality human dataset with rich multi-modal annotations: https://github.com/yumingj/DeepFashion-MultiModal - 40K high-resolution human images - Human parsing, keypoints and DensePose annotations - Attribute and textual description annotations
- https://twitter.com/_akhaliq/status/1542711108028567552
Dressing Avatars: Deep Photorealistic Appearance for Physically Simulated Clothing abs: https://arxiv.org/abs/2206.15470
- https://twitter.com/_akhaliq/status/1542708209689001984
Neural Surface Reconstruction of Dynamic Scenes with Monocular RGB-D Camera abs: https://arxiv.org/abs/2206.15255 project page: https://ustc3dv.github.io/ndr/ TL;DR: a template-free method to recover high-fidelity geometry, motions and appearance of a dynamic scene from a monocular RGB-D camera
- https://twitter.com/AlexRichardCS/status/1542174886260506624
Photorealistic 3D avatars for everyone?! Check out this exciting work from our lab in Pittsburgh! https://tinyurl.com/4xk25spe
室内画像とな
- https://twitter.com/_akhaliq/status/1544160253100564480
PhotoScene: Photorealistic Material and Lighting Transfer for Indoor Scenes abs: https://arxiv.org/abs/2207.00757 github: https://github.com/ViLab-UCSD/photoscene
- https://twitter.com/_akhaliq/status/1544124952332439552
Aug-NeRF: Training Stronger Neural Radiance Fields with Triple-Level Physically-Grounded Augmentations abs: https://arxiv.org/abs/2207.01164 Aug-NeRF effectively boosts NeRF performance in both novel view synthesis (up to 1.5dB PSNR gain) and underlying geometry reconstruction
- https://twitter.com/_akhaliq/status/1543755632565706754
Semantic Image Synthesis via Diffusion Models abs: https://arxiv.org/abs/2207.00050 experiments on three benchmark datasets demonstrate the effectiveness of proposed method, achieving sota performance in terms of fidelity(FID) and diversity (LPIPS)
パート2
技術書典13企画会議!第2回
今日のおわりに
……
今後の予定
- 次回 ZAF は 2022 年8月31日開催の予定です。
- ZAF 講演者、 ZAM 執筆者、絶賛、大募集中です!
お気軽にお問い合わせください!
総合目次
- 前座 さて、みなさま、この一月、いかがお過ごしでしたでしょうか?
- 第1部
この1ヶ月の AI の話題から
- ...
- 第2部
技術書典13企画会議!第2回
- ...
- 今日のおわりに