HELLO! AI FORUM 2023/08/26




...♦...



こんにちわ! AI FORUM
2023 年 8 月 26 日 (土曜日)

<本日のテーマ>
最近の話題から


AI の意識  あるいは  AI と意識



...♦...




目次


YouTube のアーカイブ・ビデオはこちら






...♦...




前座


(本題に入る前のウォーミングアップ)



技術書典15





...♦...




AI FORUM ポッドキャスト




トップに戻る詳細目次へ



...♦...




パート1:最近の話題から
AI の意識



振り返り
Max Tegmark
『LIFE 3.0』



...♦...




GPT-3 のあとに
ChatGPT が出たとき




...♦...




最近の(つまり、8月の)話題から
https://twitter.com/omarsar0/status/1689666956905861120
12:56 AM · Aug 11, 2023
Memorization vs. Generalization
 is one of my favorite ML research topics.

One phenomenon of interest, referred to as grokking,
is where models flip from memorizing to sudden generalization.

A big question LLM researchers are interested in answering
is whether LLMs, when trained for longer,  are generalizing
or memorizing.

While evidence for both sides has been presented,
it’s still largely inconclusive.
There are a lot of open questions regarding memorization
and generalization.

A better understanding of these behaviors
has a lot of implications when trying to further improve
these systems from a practical perspective.
Hence the emerging interest in the topic.

A new article by Google presents an interesting analysis of the topic.
...

The article: https://pair.withgoogle.com/explorables/grokking/
	  
https://twitter.com/ai_database/status/1693540889174638601
5:29 PM · Aug 21, 2023
「わたしの話」を体系的に覚えてもらいながらLLMと会話する技術MemoChat登場
https://aiboom.net/archives/54560

テンセントなどの研究者は、LLMがユーザーのことを
①メモで構造化して記憶し、
②必要に応じて思い出し、
③長期的な記憶をもとに話す
ようにするパイプラインを開発しました。
	  
https://twitter.com/ai_database/status/1690905728729694209
10:58 AM · Aug 14, 2023
大規模言語モデルがユーザーに媚びたり忖度してしまう現象を問題視し、
Google DeepMindは媚びや忖度を軽減する方法を模索しています。

○ Jerry Wei et al. Simple synthetic data reduces sycophancy
in large language models

LLMがユーザーの意見に無批判に同意したり、誤った情報に対しても同意する言動が
観測されており、この問題を放置すると誤った情報の拡散を促進してしまう恐れがあります。

以下のことが分かっています。
■モデルが大きくなるほど媚びや忖度は増加する
■指示チューニング(例えばChatGPTにおけるCustom Instructionなど)は
媚びや忖度を大幅に増加させる

そこで研究者らは事実に基づく「真偽データ」をLLMにあらかじめ教え込ませることで、
モデルが真偽を知っている主張のみを通すようにする手法を開発しました。
この手法を適用すると、LLMの媚びや忖度が軽減することが実験によって確認されました。

このような技術が発展することでLLMの利用がますます信頼できるものになる一方で、
現時点では各ユーザーのリテラシーに委ねられている部分が大きいことは留意すべきポイントです。

論文:https://arxiv.org/abs/2308.03958
GitHub:https://github.com/google/sycophancy-intervention
	  
https://twitter.com/_akhaliq/status/1692045755178226053
Last edited 2:28 PM · Aug 17, 2023
Teach LLMs to Personalize
-- An Approach inspired by Writing Education

abs: https://arxiv.org/abs/2308.07968
paper page: https://huggingface.co/papers/2308.07968

Personalized text generation is an emerging research area
that has attracted much attention in recent years.
Most studies in this direction focus on a particular domain
by designing bespoke features or models.
In this work, we propose a general approach for personalized
text generation using large language models (LLMs).
Inspired by the practice of writing education,
we develop a multistage and multitask framework to teach LLMs
for personalized generation.
In writing instruction, the task of writing from sources is often
decomposed into multiple steps that involve finding, evaluating,
summarizing, synthesizing, and integrating information.
Analogously, our approach to personalized text generation
consists of multiple stages: retrieval, ranking, summarization,
synthesis, and generation. In addition, we introduce a multitask
setting that helps the model improve its generation ability further,
which is inspired by the observation in education that a student’s
reading proficiency and writing ability are often correlated.
We evaluate our approach on three public datasets, each of which
covers a different and representative domain. Our results
show significant improvements over a variety of baselines.
	  
https://twitter.com/npaka123/status/1693391590335869436
7:36 AM · Aug 21, 2023
【勉強メモ】言語モデルにおける複雑なスキルの創発に関する理論
A Theory for Emergence of Complex Skills in Language Models
|だいち #note

https://note.com/daichi_mu/n/n72b6265b09f6

https://arxiv.org/abs/2307.15936
	  
Consciousness in Artificial Intelligence:
Insights from the Science of Consciousness
https://twitter.com/hardmaru/status/1693648477132296702
12:37 AM · Aug 22, 2023
A nice survey of several prominent theories of consciousness,
including recurrent processing, global workspace, higher-order,
predictive processing, and attention schema theories.
They claim there are
“no obvious barriers to building conscious AI systems”.

https://arxiv.org/abs/2308.08708
	  
https://twitter.com/kanair_jp/status/1693471130802389367
12:52 PM · Aug 21, 2023
AIの研究と意識の研究をつなぐ試みとして、両分野の専門家で、
AIに意識が生まれるかを議論した論文が公開されました。

https://arxiv.org/abs/2308.08708
	  
LLM Self-Alignment with Backtranslation
https://twitter.com/johnjnay/status/1690895881149829120
10:19 AM · Aug 14, 2023
LLM Self-Alignment w/ Backtranslation

-Fine-tune LLM on small amount of seed data
-Use it to generate instruction prompts (self-augmentation)
on unlabelled data & select best (self-curatation)
-Finetune on that

-Outperforms all other LLaMa-based models

https://arxiv.org/abs/2308.06259
	  
https://twitter.com/arankomatsuzaki/status/1690887516982050816
9:46 AM · Aug 14, 2023
Self-Alignment with Instruction Backtranslation

Presents a scalable method to build a high quality instruction
following language model by automatically labelling human-written
text with corresponding instructions.

https://arxiv.org/abs/2308.06259
	  



...♦...




雑感 -- 素人考え



トップに戻る詳細目次へ




...♦...



パート2
AI と意識について





...♦...




Yoshua Bengio のブログポスト



...♦...




System 2 について



...♦...




Yoshua Bengio の
System 2 についての研究



...♦...




Richard Branson のポスト

Rutger Bregman
『Humankind』



...♦...




Yoshua Bengio と
Yuval Harari のインタビュー

そこに見られた覚悟と希望


みなさんは
どう考えますか?



トップに戻る詳細目次へ




...♦...



今日のおわりに

……

今後の予定




...♦...





総合目次




...♦...