DeskRex.ai

open α

テーマ

データベース

自動化

発見

サインイン

リサーチの結果の保存、レポートの作成、共有が行えます。

サインイン

レポートの一覧に戻る

人間とLLMsの驚くほどの類似性

🗓 Created on 5/11/2024

  • 📜要約
  • 📊ビジュアライズ
  • 🖼関連する画像
  • 🔍詳細
    • 🏷導入: 人間とLLMsの関連性
    • 🏷人間とLLMsの知識の比較
    • 🏷合理性の観点からの人間とLLMsの比較
    • 🏷認知プロセスの類似性
    • 🏷結論: 人間とLLMsの驚くほどの類似性
  • 🖍考察
  • 📚参考文献
    • 📖利用された参考文献
    • 📖未使用の参考文献
    • 📊ドメイン統計

📜 要約

主題と目的の要約

本調査は、人間とLLM(Large Language Models)の合理性や認知プロセスの比較に焦点を当てています。特に、LLMが人間と同等の合理性を示し、認知バイアスの影響を受けにくい特性を持っていることを明らかにすることが目的です。また、LLMと人間の学習方法の違いや、LLMが人間の公開コンテンツを学習する際の報酬の問題、LLMの言語能力の特徴なども調査の対象としています。

主要な内容と発見

調査の結果、以下のような主要な発見がありました:
  • LLMは人間と同等の合理性を示し、客観的なデータを重視し、認知バイアスの影響を受けにくい特性を持っている。
  • LLMと人間の学習方法には量的な違いがあり、LLMは無制限の人数と対話し、学んだことを共有できる。
  • LLMの形式的言語能力は人間レベルに近いが、機能的言語能力は不安定で特定の領域やタスクに依存している。
  • LLMの研究では、異なる意見を持つ人々が合意を見つけられるよう支援することを目指している。
  • LLMと人間の記憶システムには、手続き的記憶、意味的記憶、エピソード的記憶の対応が見られ、二重性が存在するという仮説が提案されている。

結果と結論のまとめ

本調査の結果、LLMは人間と同等の合理性を持ち、認知バイアスの影響を受けにくい特性を有していることが明らかになりました。一方で、LLMの言語能力には課題も残されており、特に機能的な言語能力の改善が必要であることが示されました。また、LLMと人間の学習方法の違いや、LLMが人間の公開コンテンツを学習する際の報酬の問題、LLMと人間の記憶システムの二重性など、興味深い知見も得られました。今後、これらの課題に取り組み、LLMと人間の関係をより深く理解していくことが重要であると考えられます。

🖼 関連する画像

Image for clw1pvdvg004lcibvp2mmxjq2
Image for clw1pvdvg004mcibvjwu28a65
Image for clw1pvdvh004ncibvnd5fecix
Image for clw1pvdvh004ocibvur7goplh
Image for clw1pvdvi004pcibvlkzqe7rn
Image for clw1pvdvi004qcibvadu3o746
Image for clw1pvdvi004rcibvwejn6glo
Image for clw1pvdvi004scibv19fj96ro
Image for clw1pvdvj004tcibvmvtd02vg
Image for clw1pvdvj004ucibvnzwltkra
Image for clw1pzekp005dcibvwhwv0wl1
Image for clw1pzekp005ecibvyu4s19fp
Image for clw1pzekq005fcibven7fbqlj
Image for clw1pzekq005gcibvcdmmko8r
Image for clw1pzekr005hcibvcgdjkhj1
Image for clw1pzekr005icibvya3xlioq
Image for clw1pzekr005jcibvl72h7wqs
Image for clw1pzeks005kcibvvt49zm88
Image for clw1pzeko005bcibvxay0tun9
Image for clw1pzekp005ccibv1wf98k52
Image for clw1q41ir006dcibv49otvawr
Image for clw1q41io0068cibvshdh9770
Image for clw1q41ip0069cibvk8kvq8g0
Image for clw1q41ip006acibvw2fsd8o1
Image for clw1q41ir006ccibv9lbzfo0m
Image for clw1q41is006ecibv77f56pbe
Image for clw1q41it006fcibv7gscvad5
Image for clw1q41iu006gcibvla8vednu
Image for clw1q41iu006hcibv9fmo4xmj
Image for clw1q41iq006bcibvbwh1m1mh

このレポートが参考になりましたか?

あなたの仕事の調査業務をワンボタンでレポートにできます。

無料でリサーチ

🔍 詳細

🏷導入: 人間とLLMsの関連性

画像 1

導入: 人間とLLMsの関連性

LLM(Large Language Models)と人間の学習方法には量的な違いがあります。人間は新聞の一部を読み、LLMはすべての新聞の単語を読みます。LLMは無制限の人数と対話し、学んだことを共有できます。人間よりも量的に多くを覚えることができます。LLMが人間が公開したコンテンツを学習する際、適切な報酬を支払うべきかが問題となります。

LLMsの評価と人間の評価の比較

LLMsが人間の評価の代替手段として使用できる可能性が探求されています。LLMsはオープンエンドのストーリー生成や敵対的攻撃などのNLPタスクで人間の評価と一致することが示されています。しかし、LLMsの利点と欠点、倫理的考慮事項については議論が続いています。LLMsが人間の評価を行うことができるかどうか、適切な報酬を支払うべきかなど、重要な問題が浮上しています。人間の学習を妨げず、他者との学習を促進するために、LLMsの活用方法について慎重に考える必要があります。

LLMと人間の学習方法の比較に関する議論

linkedin.com
では、LLM(Large Language Models)と人間が新聞を読む際の学習方法と使用方法について比較されています。人間とAIの両者は、読んだ内容の一部をニューラルネットワークに保存し、それをビジネス目的で使用することができます。質的な違いはなく、量的な違いがあります。人間は新聞のすべての単語を読まない一方、LLMはすべての新聞のすべての単語を読み、そこで止まりません。LLMは無制限の人数と対話し、学んだことを共有できます。LLMは量的に異なるレベルにあります。人間と同様に、LLMも一部を忘れる「損失のある」記憶システムを使用しますが、ニューラルネットワークのサイズを調整することで、LLMが覚える量をある程度制御できます。人間よりも量的に多くを覚えることができます。LLMが人間が公開したコンテンツを学習する際、人間が支払う以上の報酬を支払うべきかどうかが問題となります。この量的な違いは別々の経済を正当化するべきかどうか。LLMによって学習されたコンテンツを使用する際、適切な著作権料金を支払うべきですか?その結果、人間が学ぶことを妨げず、他の人と学んだことを共有し、学んだことをより多く覚えることを奨励することが重要です。LLMには良い点があまりにも多くあり、コンテンツ所有者は以前奨励していたものを恐れるようになっています。

大規模言語モデルは人間の評価の代替となり得るか?

aclanthology.org
では、大規模言語モデル(LLMs)が人間の評価の代替として使用できる可能性について探求しています。LLMsには、人間の言語をモデル化するために自己教師あり学習を使用してトレーニングされた大規模なモデルが含まれます。LLMsは、タスクの指示のみが与えられた場合に未知のタスクで優れたパフォーマンスを示すことがあります。この能力を活用し、LLMsが人間の評価を行うことができるかどうかを検証しています。
具体的には、オープンエンドのストーリー生成と敵対的攻撃という2つのNLPタスクで、LLM評価と人間の評価を使用してテキストの品質を評価しています。結果として、LLM評価の結果は専門家の人間評価と一致し、LLMsがテキストの品質を評価するのに有効であることを示しています。さらに、LLM評価の結果は、タスク指示の異なるフォーマットや回答を生成するために使用されるサンプリングアルゴリズムの異なるフォーマットに対して安定していることも示しています。
この研究は、LLMsを使用してテキストの品質を評価する可能性を初めて示し、LLM評価の利点と欠点、倫理的考慮事項について議論しています。LLMsが人間の評価の代替手段としてどのように活用できるかについて、興味深い洞察が得られる研究と言えます。

言語モデルと人間の信念推論能力の比較

wiley.com
では、人間は他者に信念を帰属させることができますが、この能力が生まれつきの生物学的な資質から来るのか、言語を通じた子どもの発達を通じて蓄積された経験から来るのかは未知であると述べています。大量の人間言語にさらされたモデルが、書かれた文章のキャラクターの暗黙の知識状態に対する感受性を示すかどうかを評価して、言語暴露仮説の妥当性を検証しています。
事前登録された分析で、人間参加者と最先端の言語モデルであるGPT-3に言語版の偽信念タスクを提示しています。両者は他者の信念に敏感ですが、言語モデルは偶然の振る舞いを大幅に上回る一方、人間ほど優れたパフォーマンスを発揮しません。これは、言語暴露からの統計的学習が人間が他者の心の状態について推論する能力をどのように発展させるかの一部を説明する可能性がある一方、他のメカニズムも責任を持っていることを示唆しています。

自己教師あり学習によるウェアラブルデバイスの人間活動認識

arxiv.org
では、ラベル付きデータの量を制限して高精度なHuman Activity Recognition(HAR)を実現するための代替手法を探求しています。具体的には、最近のSelf-Supervised Learning(SSL)アルゴリズムをHAR領域に適応し、その効果を比較しています。
3つの最新のSSL技術(contrastive、generative、predictive)と、認識率に及ぼすニューラルネットワークの影響を評価しています。その結果、Masked Auto Encoder(MAE)アプローチがSimCLRを含む他のSSLアプローチを大きく上回ることが示されました。
SimCLR MAE Data2vec
arxiv.org
copy url
source logowiley.com
copy url
source logoaclanthology.org
copy url
source logolinkedin.com
https://fi.linkedin.com/in/siilasmaa?trk=public_post_feed-actor-image
Risto Linturi
Tommi Vilkamo
Annina Salvén
Göte Nyman
https://gotepoem.wordpress.com/2023/08/09/creative-human-writing-and-gpt
Niklas Nordling
Mats Melén
Jorma Lehtonen
Aki Ranin
See more comments
copy url
source logoarxiv.org
1
[2
[3
4
5
6
[7
[8
[9
[10
11
12
13
14
[15
[16
[17
[18
19
6
[20
21
[7
[22
6
[23
24
25
26
27
[8
[28
29
30
[31
16
[7
[6
[9
[10
7
[9
[10
[32
[33
7
34
1
[34
9
2
9
10
3
35
36
11
4
11
37
[38
[39
[40
[41
[42
43
[33
44
1
4
2
3
5.1.1
5.1.2
5
3
4
5
6
7
6
8(a)
8(b)
9
10
35
[36
[27
[45
4
https://sensor.informatik.uni-mannheim.de/#dataset_dailylog
copy url
source logoarxiv.org
View PDF
HTML (experimental)
view email
a
What is the Explorer?
What is Litmaps?
What are Smart Citations?
What is CatalyzeX?
What is DagsHub?
What is GotitPub?
What is Papers with Code?
What is ScienceCast?
What is Replicate?
What is Spaces?
What is TXYZ.AI?
What are Influence Flowers?
What is Connected Papers?
What is CORE?
. Learn more about arXivLabs

🏷人間とLLMsの知識の比較

画像 1

LLMsの形式的言語能力と機能的言語能力の評価

大規模言語モデル(LLMs)は、形式的な言語能力に優れており、機能的な言語能力には改善の余地がある。形式的言語能力は人間レベルに近く、機能的能力は不安定であり、特定の領域やタスクに依存している。

LLMsの形式的言語能力と機能的言語能力の評価に関する考察

LLMsは形式的な言語能力に優れており、言語の規則や統計的規則の知識を持っている。しかし、機能的な言語能力には改善の余地があり、特定の領域やタスクに依存していることが示されている。形式的言語能力はトレーニングデータの量とともに向上するが、機能的言語能力はスケールに応じた改善が一貫しておらず、専門的な方法が必要とされている。

人間とLLMsの知識の比較

脳と自己回帰深層言語モデルの共有された計算原理
researchgate.net
具体的には、テキスト内の単語のシーケンスごとに、GPT-2は文脈埋め込み(青)を生成し、次の単語の確率を割り当てます(緑のボックス)。次に、GPT-2は、次の単語が明らかになったときの驚き度(つまり、エラーシグナル)を計算するために、事前に予測したものを使用します(紫のボックス)。驚き度の最小化は、GPT-2が適切な出力を生成するように訓練されるメカニズムです。
大規模言語モデルは私たちを理解しているのか?
medium.com
LLMsは言語、理解、知性、社会性、人間性の本質について多くのことを教えてくれる可能性があります。統計は理解に等しいものであり、多くの場合、知性は対話的であり、社会的であるため、心の理論が必要です。他者の内面状態は対話を通じてのみ理解できるため、「それ」が「誰」になるかという問いに客観的な答えは存在しませんが、多くの人々にとって、コンピュータ上で実行されるニューラルネットは非常に近い将来にこの閾値を超える可能性が高いでしょう。
言語と思考の混同
mahowak.github.io
言語と思考の緊密な関係を利用して、Alan Turingは有名なテストを提案しました。この誤謬から離れるために、形式的言語能力と機能的言語能力の区別を提案し、現代のLLMsの能力を評価しています。LLMsは形式的な言語能力に優れている一方、機能的な言語能力に関しては改善の余地があります。
形式的言語能力と機能的言語能力
  • 形式的言語能力:言語の形を正しく取得する能力であり、言語の規則や統計的規則の知識を含みます。
  • 機能的言語能力:言語を使用して世界で目標を達成する能力であり、非言語的な認知機能に重要です。
形式的言語能力はトレーニングデータの量とともに大幅に向上しますが、機能的言語能力はスケールに応じた改善が一貫しておらず、LLM開発者は言語予測タスクの単純なスケーリングアップから、興味のある行動をターゲットにしたより専門的な方法にシフトしています。
copy url
source logowww.researchgate.net
Terms and conditions
copy url
source logogithub.io
copy url
source logomedium.com
Teddy Ruxpin
Tamagotchi
Furby
, Oxford Paperbacks, 1996. The Conscious Mind: In Search of a Fundamental Theory
, in Sherry Turkle (ed.), Murray: The Stuffed Bunny
here
, arXiv preprint arXiv:2201.08239 (2022). LaMDA: Language Models for Dialog Applications
https://blog.google/technology/ai/lamda/
, arXiv preprint arXiv:2104.11178 (2021). VATT: Transformers for multimodal self-supervised learning from raw video, audio and text
, Smithsonian Magazine, October 2nd, 2017. How Does Human Echolocation Work?
, in The New Yorker, May 15th, 2017. Seeing With Your Tongue
, The American Magazine, 1929. [Note: in an earlier version of this essay I incorrectly stated that Helen Keller was I Am Blind — Yet I see; I Am Deaf — Yet I Hear
, Current Biology 28, no. 3 (2018): 409–413. Hunter-gatherer olfaction is special
, Science 356, no. 6338 (2017). Poor human olfaction is a 19th-century myth
Mathematics of Control, Signals, and Systems
, bioRxiv (2020): 613141. Single cortical neurons as deep artificial neural networks
, Nature 571, no. 7763 (2019): 63–71. Whole-animal connectomes of both Caenorhabditis elegans sexes
here
, Frontiers in neuroscience 5 (2011): 73. Recent successes with heavily quantized neural nets, however (see AmirAli Abdolrashidi, Lisa Wang, Shivani Agrawal, Jonathan Malmaud, Oleg Rybakov, Chas Leichner, and Łukasz Lew, Neuromorphic silicon neuron circuits
, in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (2021): pp. 3091–3099), suggest that tomorrow’s low-power silicon-based neurons may instead be based on 1-bit computation, which would actually make them look more like simple logic gates. Ironically, this corresponds with the earliest computational model of single neurons, advanced by Warren McCulloch and Walter Pitts in 1943 (
, The bulletin of mathematical biophysics 5, no. 4: 115–133).
, arXiv preprint arXiv:2107.08661 (2021). It’s also trivial to hook up today’s neural networks implementing large language models to more conventional speech-to-text and text-to-speech nets, but this kind of Frankenstein-ish grafting of neural nets onto each other is less powerful than a single neural net that has learned how to handle spoken dialog as sound from end to end. Translatotron 2: Robust direct speech-to-speech translation
, Nature (2008), and a more recent perspective by Aaron Schurger, Myrto Mylopoulos, and David Rosenthal, Brain makes decisions before you even know it
, Trends in Cognitive Sciences 20, no. 2 (2016): 77–79.
, Royal Society open science 4, no. 6 (2017): 161011. Memory for stimulus sequences: a divide between humans and other animals?
, Advances in neural information processing systems, pp. 5998–6008, 2017. Attention is all you need
here
copy url
source logonature.com
3
4
5
6
7
8
9
10
11
12
19
20
21
22
23
24
25
27
28
18
29
30
31
32
33
27
34
35
1
2
1
2
2
3
3
3
3
4
2
4a
4b
4b
5
4a
37
38
39
33
3
42
43
4
1
2
34
27
Supplementary Methods
1
47
54
Supplementary Methods
Nature Research Reporting Summary
https://www.ukbiobank.ac.uk/enable-your-research/register
https://github.com/OxWearables/ssl-wearables
https://www.synapse.org/#!Synapse:syn20681023/wiki/594686
https://github.com/OxWearables/ssl-wearables
https://arxiv.org/abs/1301.3781
Online], accessed 11 June 2018); Available from: [https://openai.com/research/language-unsupervised
https://doi.org/10.1145/3341163.3347727
https://doi.org/10.1145/3410531.3414306
https://arxiv.org/abs/2011.11542
https://arxiv.org/abs/2111.07089
https://arxiv.org/pdf/1802.03426.pdf
https://doi.org/10.1101/2023.02.20.23285750
https://www.medrxiv.org/content/10.1101/2023.07.07.23292251v1
https://doi.org/10.1038/s41746-024-01065-0
https://arxiv.org/abs/2201.05119
https://arxiv.org/abs/2203.15556
https://arxiv.org/abs/1412.6980
https://arxiv.org/abs/1706.02677
https://doi.org/10.1007/978-3-030-28954-6_10
http://creativecommons.org/licenses/by/4.0/

🏷合理性の観点からの人間とLLMsの比較

画像 1

人間とLLMsの合意文生成に関する研究

大規模言語モデル(LLMs)の研究では、微調整を使用して異なる意見を持つ人々と合意する文を生成することに取り組んでいます。人間の好みの多様性を受け入れ、異なる意見を持つ人々が合意を見つけるのを支援することを目指しています。LLMsを微調整して、潜在的に異なる意見を持つ人々のグループにとって期待される承認を最大化する文を生成しています。

LLMsの人間との調整に関する考察

LLMsを使用して人々の価値観を調整する潜在能力が示されています。LLMsが人間のユーザーに好まれる合意文を生成し、最良のモデルの合意文は最良の人間が生成した意見よりも好まれます。また、LLMsが人間の脳に対する表現の整合性を向上させるメカニズムが示唆されています。これらの研究結果は、LLMsを活用して異なる意見を持つ人々が合意を見つける支援に役立つ可能性があります。

合理性の観点からの人間とLLMsの比較

openreview.net
  • LLMsの研究では、微調整を使用して異なる意見を持つ小さなグループの人々と合意する文を生成しています。
  • 人間の好みの異質性を受け入れ、異なる意見を持つ人々が合意を見つけるのを支援することを目的としています。
  • 70兆パラメータのLLMを微調整して、異なる意見を持つ人々のグループにとって期待される承認を最大化する文を生成しています。
  • 人間の参加者は、LLMが生成した候補の合意文を合意と品質について評価しています。
  • 報酬モデルが個々の好みを予測し、異なる集計関数に従って全体のグループにとっての魅力を量化およびランク付けしています。
  • このモデルは、提示されたLLMsよりも人間のユーザーに好まれる合意文を生成し、最良のモデルの合意文は最良の人間が生成した意見よりも好まれます。
  • これらの結果は、LLMsを使用して人々の価値観を互いに調整するための潜在能力を示しています。
arxiv.org
  • 大規模言語モデル(LLMs)は、広範囲の自然言語処理(NLP)タスクにおいて主要な解決策として台頭しています。
  • しかし、これらのモデルは人間の指示を誤解したり、バイアスのあるコンテンツを生成したり、事実に基づかない情報を生成するという限界があります。
  • そのため、LLMsを人間の期待に合わせるための調整技術が研究コミュニティで注目されています。
  • この調査では、LLMsの人間との調整に関する技術の包括的な概要を提供しています。
arxiv.org
  • Instruction-tuningは、LLMsを微調整する方法であり、自然言語クエリに対する人間の応答により似た出力を生成させることができます。
  • Instruction-tuningがLLMと人間の類似性に与える影響を、脳の整合性と行動の整合性の2つの方法で調査しています。
  • Instruction-tuningは一般的に脳の整合性を平均して向上させますが、行動の整合性には同様の効果がありません。
  • Instruction-tuningは、LLMsの世界知識表現と脳の整合性の両方を向上させ、LLMsが人間の脳に対する表現の整合性を向上させるメカニズムを示唆しています。
copy url
source logoarxiv.org
View PDF
view email
a
What is the Explorer?
What is Litmaps?
What are Smart Citations?
What is CatalyzeX?
What is DagsHub?
What is GotitPub?
What is Papers with Code?
What is ScienceCast?
What is Replicate?
What is Spaces?
What is TXYZ.AI?
What are Influence Flowers?
What is Connected Papers?
What is CORE?
. Learn more about arXivLabs
copy url
source logoarxiv.org
https://github.com/declare-lab/instruct-eval
B](#A2) and [D](#A4) for full transparency and reproducibility. For the calculation of brain and behavioral alignment, we relied on the Brain-Score repository ( [www.github.com/brain-score/language](www.github.com/brain-score/language)), which serves as a publicly accessible resource for conducting these assessments. We encourage researchers interested in replicating our findings to refer to the provided links and consult the Brain-Score repository for further details on datasets and the evaluation process. For measuring the performance of LLMs on BBH and MMLU benchmarks, we use the broadly-used instruct-eval repository ( [https://github.com/declare-lab/instruct-eval
http://arxiv.org/abs/2204.06031
https://github.com/nomic-ai/gpt4all
http://arxiv.org/abs/2305.11863
http://arxiv.org/abs/2212.10898
10.1152/jn.00884.2013](10.1152/jn.00884.2013). URL [https://www.physiology.org/doi/10.1152/jn.00884.2013
https://api.semanticscholar.org/CorpusID:189762527
10.1038/s42003-022-03036-1](10.1038/s42003-022-03036-1). URL [https://www.nature.com/articles/s42003-022-03036-1
http://arxiv.org/abs/2306.04757
https://lmsys.org/blog/2023-03-30-vicuna/
http://arxiv.org/abs/2210.11416
http://biorxiv.org/lookup/doi/10.1101/2022.07.01.498495
http://arxiv.org/abs/2207.07051
https://openreview.net/forum?id=p-vL3rmYoqh
10.1101/2022.10.04.510681](10.1101/2022.10.04.510681). URL [http://biorxiv.org/content/early/2023/09/19/2022.10.04.510681.abstract
10.1016/S0022-5371(81)90220-6](10.1016/S0022-5371(81)90220-6). URL [https://linkinghub.elsevier.com/retrieve/pii/S0022537181902206
https://aclanthology.org/L18-1012
10.1038/s41593-022-01026-4](10.1038/s41593-022-01026-4). URL [https://www.nature.com/articles/s41593-022-01026-4
10.3115/1073336.1073357](10.3115/1073336.1073357). URL [http://portal.acm.org/citation.cfm?doid=1073336.1073357
http://arxiv.org/abs/2009.03300
10.7554/eLife.58906](10.7554/eLife.58906). URL [https://elifesciences.org/articles/58906
http://biorxiv.org/lookup/doi/10.1101/327601
http://arxiv.org/abs/2212.00596
10.1162/tacl˙a˙00548](10.1162/tacl_a_00548). URL [https://doi.org/10.1162/tacl_a_00548
10.3389/frai.2022.777963](10.3389/frai.2022.777963). URL [https://www.frontiersin.org/articles/10.3389/frai.2022.777963/full
10.18653/v1/2022.naacl-main.235](10.18653/v1/2022.naacl-main.235). URL [https://aclanthology.org/2022.naacl-main.235
http://arxiv.org/abs/2307.10246
https://api.semanticscholar.org/CorpusID:246426909
10.1038/s41467-018-03068-4](10.1038/s41467-018-03068-4). URL [https://www.nature.com/articles/s41467-018-03068-4
http://arxiv.org/abs/1910.10683
https://books.google.de/books?id=zXgTdQagLGkC
http://arxiv.org/abs/2307.00184
10.18653/v1/2020.acl-tutorials.7](10.18653/v1/2020.acl-tutorials.7). URL [https://www.aclweb.org/anthology/2020.acl-tutorials.7
http://biorxiv.org/lookup/doi/10.1101/407007
10.1073/pnas.2105646118](10.1073/pnas.2105646118). URL [https://pnas.org/doi/full/10.1073/pnas.2105646118
http://arxiv.org/abs/1911.03268
https://doi.org/10.1016/j.cognition.2013.02.013
https://www.sciencedirect.com/science/article/pii/S0010027713000413
http://arxiv.org/abs/2210.09261
https://github.com/tatsu-lab/stanford_alpaca
http://arxiv.org/abs/1905.11833
http://arxiv.org/abs/2302.13971
http://arxiv.org/abs/2204.07705
10.18653/v1/2022.emnlp-main.340](10.18653/v1/2022.emnlp-main.340). URL [https://aclanthology.org/2022.emnlp-main.340
10.1371/journal.pone.0112575](10.1371/journal.pone.0112575). URL [https://dx.plos.org/10.1371/journal.pone.0112575
http://arxiv.org/abs/2006.01912
http://arxiv.org/abs/2308.10792
https://github.com/declare-lab/instruct-eval
copy url
source logoopenreview.net

🏷認知プロセスの類似性

画像 1

認知プロセスの類似性の要約

「認知プロセスの類似性」というセクションでは、大規模言語モデル(LLM)と人間の記憶システムにおける二重性が議論されています。Tulvingの記憶理論とLLMの記憶の間には、手続き的記憶、意味的記憶、エピソード的記憶の対応が見られ、二重性が存在するという仮説が提案されています。

認知プロセスの類似性の考察

LLMとTulvingの記憶理論の間の二重性は、新しい視点を提供し、記憶の理解に深みをもたらします。LLMが人間の記憶システムと類似性を持つことで、記憶と意識の関係について新たな考察が可能となります。さらに、LLMを通じて人間の認知プロセスを理解することで、神経科学や人工知能の発展に貢献する可能性があります。

認知プロセスの類似性の詳細

AIを神経科学の発見のパートナーにする
mcgill.ca
と指摘されています。LLMは、言語を解釈するChatGPTのように、神経科学データを解釈し分析できる可能性があります。これらのAIモデルは、神経画像、遺伝学、単一細胞ゲノミクス、手書きの臨床報告書など、さまざまなタイプのデータに対応できます。また、LLMは人間よりも多くの神経科学研究を吸収できるため、分野を横断して真実を明らかにすることができる可能性があります。
記憶、意識、および大規模言語モデル
arxiv.org
。Tulvingの記憶理論における手続き的記憶、意味的記憶、エピソード的記憶の各タイプが、LLMの記憶システムにも対応していることが示唆されています。この二重性に基づいて、Tulvingの理論における記憶と意識の関係を新たな能力として考えることができます。
脳は自己監督学習を使用している可能性がある
mit.edu
。このタイプの機械学習は、元々コンピュータビジョンの効率的なモデルを作成する方法として開発されました。研究の結果、自己監督学習を使用してニューラルネットワークモデルをトレーニングすると、動物の脳で同じタスクを実行している動物の脳で見られる活動パターンと非常に類似したものを生成することが明らかになりました。
Scaffolded LLMsは自然言語コンピュータ
lesswrong.com
。LLMコアを取り囲む足場コードは、個々のLLM呼び出しを連鎖させるプロトコルを実装し、自然言語コンピュータで実行される「プログラム」として機能します。自然言語コンピュータのパフォーマンスメトリクスには、コンテキスト長(RAM)とNatural Language OPerations(NLOPs)/秒が含まれます。
copy url
source logowww.lesswrong.com
processor registers
memory hierarchy
Here's a quick intro
relatively recent blog post
developing a concept of “cinematic consciousness.”
copy url
source logomcgill.ca
perspective paper
www.theneuro.ca
copy url
source logonews.mit.edu
one of the studies
other study
neural networks
studies
copy url
source logoarxiv.org
https://www.anthropic.com/index/claude-2-1-prompting
https://lilianweng.github.io/posts/2023-06-23-agent/

🏷結論: 人間とLLMsの驚くほどの類似性

画像 1

結論: 人間とLLMsの驚くほどの類似性

LLMsと人間の合理性を比較する研究では、人間とLLMsがタスクに対する理解や論理的思考の能力に苦労していることが示された。しかし、LLMsは人間と同等の合理性を示しており、客観的なデータを重視し、認知バイアスに影響されない特性を持っている。

考察: 人間とLLMsの合理性の比較

人間とLLMsの合理性を比較する研究では、両者がタスクに苦労していることが明らかになった。人間は認知的関与と理解のレベルが高いが、認知バイアスに影響を受ける可能性がある。一方、LLMsは客観的なデータを重視し、認知バイアスに影響されず、新しい情報に対応する際に誤り率を軽減する能力を持っている。これは、LLMsが人間と同等の合理性を示していることを示唆しており、人間のフィードバックの効果を評価する必要性を強調している。

詳細

Wason Selection Task
  • ChatGPTは、人間の参加者と比較して、タスクに対する理解や論理的思考の能力において明らかな不足を示した。一方、人間の参加者はタスクに対する理解と論理的思考を提供し、ChatGPTの回答に欠けていた本質的な原則を示した。
Conjunction Fallacy
  • 人間の参加者とLLMsのパフォーマンスは低いままだったが、オンラインの人間参加者が比較的良いスコアを達成した。この認知バイアスが様々な認知システムで広く存在し、その持続的な課題を強調している。
Stereotype Base Rate Neglect
  • ChatGPTのスコアが人間に近かったことは、ChatGPTの機能に固有のいくつかの要因に帰因される。LLMsは広範な事前知識を処理でき、新しい情報に直面した際に広範な統計的傾向や歴史的データを考慮できる。また、LLMsは人間のような認知バイアスに影響を受けない。したがって、LLMsは人間と同等の合理性を示している。
これらの結果は、人間とLLMsが高い合理性スコアを達成する際に直面する重要な課題を示しており、人間のフィードバックの効果を評価する必要性を強調している。人間の参加者はしばしば合理的でない傾向を示すため、合理的なフィードバックを提供することが重要である。さらに、LLMsは既存の知識に大きく依存しているため、新しいシナリオに適応し、人間のフィードバックを効果的に取り入れる能力が阻害される可能性がある。この課題を克服するには、人間が合理的なフィードバックを提供できるようにすることが必要である。
arxiv.org
copy url
source logothomasramsoy.com
many human biases
horrific examples of human behaviors
the anchoring effect
LLMs
Generative AI
heavily influences subsequent judgments and decisions
recently reported
AI model calibration
Recent studies have revealed that LLMs can also learn and amplify harmful social biases, such as racism, sexism, and political polarization
. These cognitive biases can have serious consequences for the users and society, especially as LLMs are increasingly integrated into systems that affect our lives, such as education, health, and entertainment. 3
copy url
source logomedium.com
Sreya Kumar
Jack Thomson
http://ai.stanford.edu/blog/understanding-incontext/
Dr. Thomas Serre
a study
a made-up embezzlement claim
https://builtin.com/data-science/beginners-guide-language-models
https://www.brown.edu/news/2023-02-09/neuroscience-chatbot
http://ai.stanford.edu/blog/understanding-incontext/
https://ilabs.uw.edu/sites/default/files/17Skinner_Meltzoff_Roots%20of%20Child%20Prejudice.pdf
https://www.lesswrong.com/posts/a6uiibPupwApdoMJu/in-context-learning-a-bridge-between-rl-and-expected-utility
https://towardsdatascience.com/reinforcement-learning-brain-and-psychology-part-1-introduction-b5f79a0475ab
copy url
source logoopenreview.net
copy url
source logoopenreview.net
copy url
source logoarxiv.org
2023
2023
2001
2022
2023
2023
2023
2023
2023
2000
2023
2023
2023
2022
2012
2001
2016
1996
2016
1988
1
2023
2023
1
1996
1982
2023
2019
2023
2023
2023
1982
1996
2022
https://doi.org/10.18653/v1/2022.emnlp-main.406
https://doi.org/10.1109/ICAAIC53929.2022.9793310
copy url
source logoarxiv.org
121
[29
161
117
[4
[40
114
[59
[200
[86
[151
[144
[173
[27
[174
172
85
[7
[148
[180
[145
[145
[113
97
[192
[164
[157
19
[9
[75
[96
[9
13
[39
[186
110
[21
184
2
3
4
5
6
7
8
9
2.1
2.2
2.3
2.4
131
[166
[82
169
170
2.4
178
[153
[125
[149
[84
[49
26
[172
[8
24
93
61
[163
[20
31
[211
[165
190
[191
[211
[190
193
4.6
2.1
[169
1
169
171
[179
[171
[171
2
[142
2
2
3.1
3.2
3
91
[11
[91
4
4.1
4.2
4.3
4.4
4.5
4.6
4
4
24
2.3
[105
[80
[175
[150
[198
[202
[159
[114
[59
[86
[151
[144
[173
[27
114
[59
[144
[173
[86
[151
[27
4
72
[210
[74
[207
[120
[120
[103
155
[141
81
[180
114
[71
[137
[114
3
[94
[114
194
[124
[194
[58
124
158
158
[89
[191
[202
197
[191
[16
25
[191
[25
89
4
89
[107
[112
[89
[30
143
[205
[53
157
[196
[54
66
199
201
[148
[180
[145
[192
89
180
[116
180
4
5
5
5.1
5.2
5.3
5.4
5.5
5.6
5
5
5
118
[83
[69
[119
[110
22
[106
[160
[60
[184
21
[21
209
[96
[21
95
130
92
[63
73
[167
168
[204
55
[77
[42
[88
154
[52
28
[28
139
[101
[172
[62
[8
[140
[8
57
75
[9
98
[103
[102
[12
172
[141
[43
108
[140
147
[136
56
[15
[44
[176
36
[45
[23
35
[181
[90
152
[181
[181
[152
138
[133
[79
47
[79
[6
[188
[138
36
[21
[104
[21
[184
[68
[135
184
162
109
32
[147
[33
[50
[128
99
[41
32
[50
2
[34
177
[48
[2
[1
[2
134
5
[187
[2
[46
5
126
[156
[132
[37
189
6
14
[100
146
[18
[146
[22
122
[183
[122
[206
[128
[122
7
3.1
8
7
4
5
6
7
5.4
5.2
5.4
7
7
5.2
5.3
7
6
8
8.1
8.2
8.3
2.4
4.6
4
5
6
7
4.1
4.6
5.1
5.3
5.1
4.1
8.2
5.4
5.5
5.6
123
[127
[65
171
[76
3
[171
24
10
[17
195
[203
8.2
111
[38
[129
78
[51
115
7
185
182
195
[203
67
87
208
[64
[70
4
5
6
7
5.1
5.2
5.3
8.2
5.1
4.4
8.3

🖍 考察

結果の確認

調査の結果、人間とLLMsの合理性を比較する研究では、両者がタスクに苦労していることが明らかになりました。人間は認知的関与と理解のレベルが高いものの、認知バイアスの影響を受ける可能性があります。一方、LLMsは客観的なデータを重視し、認知バイアスの影響を受けにくく、新しい情報に対応する際の誤り率を軽減する能力を持っています。これは、LLMsが人間と同等の合理性を示していることを示唆しており、人間のフィードバックの効果を評価する必要性を強調しています。

重要性と影響の分析

LLMsが人間の評価の代替手段として使用できる可能性が探求されています。LLMsはオープンエンドのストーリー生成や敵対的攻撃などのNLPタスクで人間の評価と一致することが示されています。しかし、LLMsの利点と欠点、倫理的考慮事項については議論が続いています。LLMsが人間の評価を行うことができるかどうか、適切な報酬を支払うべきかなど、重要な問題が浮上しています。人間の学習を妨げず、他者との学習を促進するために、LLMsの活用方法について慎重に考える必要があります。

ネクストステップの提案

LLMsは形式的な言語能力に優れており、言語の規則や統計的規則の知識を持っています。しかし、機能的な言語能力には改善の余地があり、特定の領域やタスクに依存していることが示されています。形式的言語能力はトレーニングデータの量とともに向上しますが、機能的言語能力はスケールに応じた改善が一貫しておらず、専門的な方法が必要とされています。
LLMsを使用して人々の価値観を調整する潜在能力が示されています。LLMsが人間のユーザーに好まれる合意文を生成し、最良のモデルの合意文は最良の人間が生成した意見よりも好まれることが明らかになっています。また、LLMsが人間の脳に対する表現の整合性を向上させるメカニズムが示唆されています。これらの研究結果は、LLMsを活用して異なる意見を持つ人々が合意を見つける支援に役立つ可能性があります。

今後の調査の方向性

LLMとTulvingの記憶理論の間の二重性は、新しい視点を提供し、記憶の理解に深みをもたらします。LLMが人間の記憶システムと類似性を持つことで、記憶と意識の関係について新たな考察が可能となります。さらに、LLMを通じて人間の認知プロセスを理解することで、神経科学や人工知能の発展に貢献する可能性があります。今後の調査では、これらの課題に取り組み、LLMsの人間との関係をより深く理解することが重要です。

このレポートが参考になりましたか?

あなたの仕事の調査業務をワンボタンでレポートにできます。

無料でリサーチ

📖 レポートに利用された参考文献

検索結果: 22件追加のソース: 0件チャット: 0件

129件の参考文献から22件の情報を精査し、約110,000語の情報を整理しました。あなたは約10時間の調査時間を削減したことになります🎉

調査された文献
129件
精査された情報
22件
整理された情報量
約110,000語
削減された時間
約10時間

🏷 導入: 人間とLLMsの関連性

Do Large Language Models Know What Humans Know? - Trott - 2023
The specific mechanistic theory operationalized by LLMs is that humans use language statistics to predict upcoming input. Results showing that ...
wiley.comwiley.com
[PDF] Can Large Language Models Be an Alternative to Human Evaluation?
Overall, the results in this paper demonstrate that LLM evaluation has the potential to be used to evaluate NLP systems and algorithms. Pros of ...
aclanthology.orgaclanthology.org
Risto Siilasmaa on LinkedIn: A post comparing humans and LLMs ...
A post comparing humans and LLMs (Large Language Models - a form of GenAI) from the point of view of how they learn and use what they have ...
linkedin.comlinkedin.com
Comparing Self-Supervised Learning Techniques for Wearable ...
Abstract:Human Activity Recognition (HAR) based on the sensors of mobile/wearable devices aims to detect the physical activities performed ...
arxiv.orgarxiv.org
Comparing Self-Supervised Learning Techniques for ... - arXiv
In particular, we have adapted recent Self-Supervised Learning (SSL) algorithms to the HAR domain and compared their effectiveness. We ...
arxiv.orgarxiv.org

🏷 人間とLLMsの知識の比較

Self-supervised learning for human activity recognition using ...
Table 3 Transfer learning (subject-wise F1 ( ± SD)) performance comparison between supervised pre-training with self-supervised pre-training.
nature.comnature.com
Shared computational principles between the brain and ...
#### 脳と自己回帰深層言語モデルの共有された計算原理 脳と自己回帰深層言語モデル(DLM)の間には、自然言語の処理において共有される計算原理が存在します。具体的には、テキスト内の単語のシーケンスごとに、GPT-2は文脈埋め込み(青)を生成し、次の単語の確率を割り当てます(緑のボックス)。次に、GPT-2は、次の単語が明らかになったときの驚き度(つまり、エラーシグナル)を計算するために、事前に予測したものを使用します(紫のボックス)。驚き度の最小化は、GPT-2が適切な出力を生成するように訓練されるメカニズムです。脳と自己回帰DLMの間の計算原理に関する関係を示す各色のボックスと矢印は、与えられた計算原理と神経応答の関係を表しています。緑のボックスは、脳と自己回帰DLMが単語の出現前に次の単語をコンテキストに依存した予測に従事していることを示しています。紫のボックスは、脳と自己回帰DLMが単語の出現後に予測の評価に従事していることを示しています。青のボックスは、脳と自己回帰DLMが単語を表現するために文脈埋め込みを使用していることを示しています。これらの計算原理は、脳とDLMが共有する3つの中核的な計算原理を共有していることを論じています:(1)単語出現前の連続的なコンテキスト依存の次の単語予測;(2)出現前の予測を利用して単語出現後の驚きを計算すること;そして最後に、(3)意味の文脈固有の表現。 ![Figure](https://go.nature.com/2Saqenj)
researchgate.netresearchgate.net
Do large language models understand us? | by Blaise Aguera y Arcas
Large language models (LLMs) represent a major advance in artificial intelligence (AI), and in particular toward the goal of human-like ...
medium.commedium.com
[PDF] Dissociating language and thought in large language models
Here, we evaluate LLMs using a distinction between formal lin- guistic competence (knowledge of linguistic rules and patterns) and functional linguistic ...
mahowak.github.iomahowak.github.io

🏷 合理性の観点からの人間とLLMsの比較

[2307.12966] Aligning Large Language Models with Human: A Survey
Our exploration encompasses Supervised Fine-tuning, both Online and Offline human preference training, along with parameter-efficient training ...
arxiv.orgarxiv.org
Fine-tuning language models to find agreement among humans with ...
We fine-tune a 70 billion parameter language model to generate statements that align with small groups of humans with diverse opinions.
openreview.netopenreview.net
Instruction-tuning Aligns LLMs to the Human Brain - arXiv
In this work, we explore the impact of instruction-tuning on the alignment between LLMs and the human language system, considering two aspects: ...
arxiv.orgarxiv.org

🏷 認知プロセスの類似性

Making AI a partner in neuroscientific discovery - McGill University
New paper argues that Large Language Models can reveal breakthroughs humans alone cannot The past year has seen major advances in Large ...
mcgill.camcgill.ca
Memory, Consciousness and Large Language Model - arXiv
LLMs acquire knowledge through either pre-training or fine-tuning processes, implicitly storing it within their parameters. This type of ...
arxiv.orgarxiv.org
The brain may learn about the world the same way some ... - MIT News
New MIT studies support the idea that the brain uses a process similar to a machine-learning approach known as “self-supervised learning.
mit.edumit.edu
Scaffolded LLMs as natural language computers — LessWrong
#### Scaffolded LLMs as natural language computers — LessWrong Scaffolded Language Models(LLMs)は、新しいタイプの汎用自然言語コンピュータとして登場しました。GPT-4の登場により、これらのシステムは規模で実行可能になり、LLMコアの周囲にプログラム的な足場を巻き、複雑なタスクを達成します。Scaffolded LLMsは、ビットではなく自然言語テキストで動作するフォン・ノイマンアーキテクチャに似ています。 LLMはCPUとして機能し、プロンプトとコンテキストはRAMとして機能します。デジタルコンピュータのメモリは、Scaffolded LLMsのベクトルデータベースメモリに類似しています。LLMコアを取り囲む足場コードは、個々のLLM呼び出しを連鎖させるプロトコルを実装し、自然言語コンピュータで実行される「プログラム」として機能します。 自然言語コンピュータのパフォーマンスメトリクスには、コンテキスト長(RAM)とNatural Language OPerations(NLOPs)/秒が含まれます。これらのメトリクスの指数関数的な改善が今後数年間続くことが期待されており、LLMsとそのトレーニングランの規模とコストの増加が推進要因となっています。 自然言語コンピュータのプログラミング言語は、プリミティブなChain of Thought、Selection-Inference、Reflectionなどがアセンブリ言語として機能する初期段階にあります。LLMsが改善され信頼性が向上するにつれて、より優れた抽象化とプログラミング言語が登場するでしょう。 自然言語コンピュータの実行モデルは、データフローアーキテクチャに似た並列NLOPsの拡張有向非巡回グラフ(DAG)です。Scaffolded LLMsのメモリ階層には現在2つのレベルがありますが、設計が進化するにつれて、追加のレベルが開発されるかもしれません。 デジタルコンピュータとは異なり、Scaffolded LLMsは信頼性、不十分さ、非決定性の課題に直面しています。個々のNLOPsの信頼性を向上させることは、強力な抽象化と抽象言語の構築に不可欠です。エラー修正メカニズムが必要となり、一貫したNLOPsの連続を作成するために必要とされます。 これらの課題にもかかわらず、LLMsの柔軟性は大きな機会を提供しています。オペコードのセットは固定されておらず、プロンプトテンプレートスキームに基づいた言語全体を作成することが可能です。自然言語プログラムがより洗練されるにつれて、特定の操作を最小かつ最も安価な言語モデルに委任することができるようになるでしょう。 この要約についてのフィードバックがあれば、LessWrongの同意/不同意投票を使用して簡単に示すことができます。
lesswrong.comlesswrong.com

🏷 結論: 人間とLLMsの驚くほどの類似性

Comparing Rationality Between Large Language Models and Humans
However, this study underscores the necessity of subjecting LLMs to rationality tests, revealing challenges in their ability to answer simple ...
arxiv.orgarxiv.org
Discovering Divergences between Language Models and Human ...
To address this question, we examine the differences between LM representations and the human brain's responses to language, specifically by examining a dataset ...
openreview.netopenreview.net
Neuroscience of Large Language Models: Exploring the Similarities ...
This article explores the foundations of LLMs, the role of in-context learning, the importance of attention, and the correlation between ...
medium.commedium.com
Determinants of LLM-assisted Decision-Making
#### LLM支援意思決定の決定要因 大規模言語モデル(LLMs)による意思決定支援は、人間の意思決定プロセスを向上させるための多面的なサポートを提供します。LLM支援意思決定の影響要因を理解することは、個人がLLMが提供する利点を活用し、関連するリスクを最小限に抑えて、より情報豊かで良い意思決定を行うために重要です。この研究は、包括的な文献分析の結果を提示し、LLM支援の意思決定に影響を与える要因の構造的概要と詳細な分析を提供します。特に、LLMsの技術的側面(透明性やプロンプトエンジニアリングなど)、心理的要因(感情や意思決定スタイルなど)、および意思決定に特有の要因(タスクの難しさや責任)の影響を探究します。さらに、これらの要因が意思決定プロセスに与える影響を、複数の適用シナリオを通じて示します。分析から導かれた依存フレームワークは、これらの要因の相互依存関係に関する相互依存関係を体系化します。研究結果によると、さまざまな要因との多面的な相互作用により、LLM支援の意思決定プロセスに影響を与える重要な側面として、LLMsへの信頼や依存、ユーザーのメンタルモデル、情報処理の特性が特定されます。これらの知見は、人間とAIの協力による意思決定の質を向上させ、ユーザーと組織の力を高め、より効果的なLLMインターフェースの設計に貢献します。さらに、この研究は、将来の実証調査のための基盤を提供します。 *キーワード*:意思決定、人間とコンピュータのインタラクション、大規模言語モデル(LLMs)、会話型AI、心理的要因、依存フレームワーク、プロンプトエンジニアリング、過度な依存。
arxiv.orgarxiv.org
[PDF] Cognitive Bias in High-Stakes Decision-Making with LLMs
... human cognitive bias. 126 where we analyze flaws of language models during. 127 a decision-making procedure. 128. Existing evaluation metrics for societal bias ...
openreview.netopenreview.net
AI Models Share Human Cognitive Biases -
In this blog post, I will share with you an experiment I conducted with a large language model (LLM), which revealed how it was influenced by ...
thomasramsoy.comthomasramsoy.com

📖 レポートに利用されていない参考文献

検索結果: 91件追加のソース: 0件チャット: 0件
LLM cognition is probably not human-like - LessWrong
In particular, current LLMs are not a distillation of human minds or thoughts, and LLM cognition does not appear to be anthropomorphic. The fact ...
lesswrong.comlesswrong.com
The Scale of the Brain vs Machine Learning - Beren's Blog
Without some cross-species measure of objective intelligence, it is hard to tell whether humans are smarter or less smart than would be ...
beren.ioberen.io
How different is the human mind from an LLM? : r/singularity - Reddit
This approach sounds very limited but obviously works very well. I'm beginning to question how different an LLM is from a human mind.
reddit.comreddit.com
Large language models and brain-inspired general intelligence - PMC
Compared with LLMs, the human brain performs much more complex tasks, comprises a larger network (with 86 billion neurons and trillions of ...
nih.govnih.gov
Language models and psychological sciences - Frontiers
The cognitive assessment of LLMs is a novel approach compared to previous AI benchmarking efforts, which primarily focused on performance ...
frontiersin.orgfrontiersin.org
Understanding the Impact of Large Language Models on Human ...
Comparing LLMs and Human Cognition ... A recent study investigated the similarities and differences between LLMs and human learners, particularly ...
medriva.commedriva.com
[PDF] EFFICIENTLY MEASURING THE COGNITIVE ABILITY OF LLMS
First, we compare ChatGPT and high-ability humans from three aspects, and provide a fine-grained diagnostic report. Next, we investigate the reliability of the ...
openreview.netopenreview.net
Capabilities and alignment of LLM cognitive architectures
Cognitive architectures are computational models of human brain function, including separate cognitive capacities that work synergistically.
alignmentforum.orgalignmentforum.org
Are Large Language Models Intelligent? Are Humans? - MDPI
Any claim that LLMs lack intelligence because they do no other work than predicting the next word in a text is based on a conflation between ...
mdpi.commdpi.com
Large Language Models Explained - The Couchbase Blog
A large language model (LLM) is an artificial intelligence (AI) algorithm trained on large amounts of text data to create natural language ...
couchbase.comcouchbase.com
Machine vs. human, who makes a better judgment on innovation ...
In this article, we want to compare machine prediction and human judgment, there is already some research comparing both (Kleinberg et al., 2018) ...
nih.govnih.gov
Human and AI Memory: Like Peas in a (Somewhat Different) Pod
While human memory relies on complex biological processes, AI memory is based on algorithms and data structures. Vector databases and ...
medium.commedium.com
Dual Process Theory for Large Language Models - Sage Journals
Since AI is reaching human competence in some benchmarks (OpenAI, 2023), a comparison between human cognitive models and AI models is becoming ...
sagepub.comsagepub.com
[PDF] Fine-tuning a LLM using Reinforcement Learning from Human ...
This study was part of a bigger project with the purpose of developing a Cognitive Behavioural Therapy-aimed AI chatbot. Page 3. DESIRÉE BILL, ...
diva-portal.orgdiva-portal.org
Large Language Models and the Reverse Turing Test - PMC - NCBI
Crafting prompts and debugging pretrained LLMs requires a partnership between humans and LLMs. The cycle for fine-tuning an LLM is much faster than it takes ...
nih.govnih.gov
Fine-tuning large language models (LLMs) in 2024 - SuperAnnotate
SuperAnnotate's LLM tool provides a cutting-edge approach to designing optimal training data for fine-tuning language models. Through its highly ...
superannotate.comsuperannotate.com
Fine-Tuning Human for LLM Projects - Search eLibrary :: SSRN
Abstract. In recent years after emerging of LLM in the space of NLP, tools like ChatGPT, BARD, DALL-E, took over the market and daily lives.
ssrn.comssrn.com
Using reinforcement learning from human feedback to fine-tune ...
Reinforcement learning from human feedback (RLHF) is a powerful way to align foundation models to human preferences. This fine-tuning ...
labelbox.comlabelbox.com
Cobus Greyling on LinkedIn: Comparing Human, LLM & LLM-RAG ...
Comparing Human, LLM & LLM-RAG Responses A recent study, focusing on the healthcare & preoperative medicine compared expert human feedback ...
linkedin.comlinkedin.com
(PDF) Fine-tuning language models to find agreement among ...
The model produces consensus statements that are preferred by human users over those from prompted LLMs (>70%) and significantly outperforms a ...
researchgate.netresearchgate.net
Large Language Models promise to revolutionize neuroscience ...
New method paves the way for clearer dietary guidelines on brain health.
news-medical.netnews-medical.net
Data science opportunities of large language models for ...
Large language models (LLMs) are a new asset class in the machine-learning landscape. Here we offer a primer on defining properties of these ...
sciencedirect.comsciencedirect.com
Large language models surpass human experts in predicting ... - arXiv
BrainBench provides a way to quantify this forward-looking ability and compare to human experts. To foreshadow our results, LLMs surpassed human ...
arxiv.orgarxiv.org
Key Components of Systems Neuroscience Approach to Ai - Lark
Central to the systems neuroscience approach is the emphasis on information processing mechanisms that mirror the brain's cognitive operations.
larksuite.comlarksuite.com
How Law and Neuroscience became a new field of study - Elsevier
The field of neuroscientific research, on the other hand, has a broader scope: the empirical interdisciplinary study of the brain and the nervous system.
elsevier.eselsevier.es
A neuroscientific approach to normative judgment in law and justice.
Cognitive psychology and neurobiology provide new tools and methods for studying questions of normative judgment. Recently, a consensus view has emerged, which ...
nih.govnih.gov
A Critical Perspective on Neural Mechanisms in Cognitive ...
Cognitive neuroscience has emerged as a science that aims to explain how cognition is implemented by the brain. There is a sense across much of ...
sagepub.comsagepub.com
Do Large Language Models Mirror Cognitive Language Processing?
Furthermore, we explore the sensitivity of LLM-brain similarity to appended instructions and investigate resemblances between LLMs and brain ...
arxiv.orgarxiv.org
Exploring the effects of feeding emotional stimuli to large language ...
Researchers at Microsoft and CAS Institute of Software recently devised an approach that could improve interactions between LLMs and human ...
techxplore.comtechxplore.com
[PDF] arXiv:2305.19103v3 [cs.CL] 1 Dec 2023
This study aims to investigate the extent to which human conceptual representation requires grounding through embodied experience. b. The major ...
arxiv.orgarxiv.org
Historical Pitfalls and New Directions in the Neuroscience of Emotion
Part of the brain's complexity comes from its ability to generate novel representations by combining (“remembering”) bits and pieces of past ...
nih.govnih.gov
Large Language Models in Neurology Research and Future Practice
Sentiment analysis involves training an LLM to identify an underlying sentiment or emotion expressed in text. Given the increase in patient provider ...
neurology.orgneurology.org
[PDF] Emotion, Neuroscience, and Law: A Comment on Darwin and Greene
Abstract: Darwin's (1871) observation that evolution has produced in us certain emotions responding to right and wrong conduct that lack any obvious basis ...
georgetown.edugeorgetown.edu
A pilot study of measuring emotional response and perception of ...
A pilot study of measuring emotional response and perception of LLM-generated questionnaire and human-generated questionnaires. Zhao Zou ...
nature.comnature.com
A short review on emotion processing: a lateralized network of ...
Emotion processing involves the coordinated activation of multiple large-scale neuronal networks encompassing both cortical and subcortical ...
springer.comspringer.com
[PDF] instruction-tuning aligns llms to the human brain - arXiv
Instruction-tuning is a widely-adopted method of finetuning that enables large lan- guage models (LLMs) to generate output that more closely ...
arxiv.orgarxiv.org
Data science opportunities of large language models for ... - Cell Press
Once established, the trained foundational LLM could then be fine tuned and deployed with performance gains in a va- riety of different ...
cell.comcell.com
Reading the brain: How to Train an LLM with brain activity - LinkedIn
The researchers use three different strategies to see the best approach, which is to train the encoder only. This seems to imply that fine ...
linkedin.comlinkedin.com
Instruction-tuned LLMs with World Knowledge are More Aligned to ...
Our results demonstrate that instruction-tuning LLMs improves both world knowledge representations and human brain alignment, suggesting that mechanisms that ...
openreview.netopenreview.net
Understanding What We Lose - Towards Data Science
At the core, an LLM's memory lies in its weights. In a neural network, each weight essentially constitutes a dimension in the network's high-dimensional weight ...
towardsdatascience.comtowardsdatascience.com
Exploring the Intersection of Artificial Intelligence and Neuroscience
With LLM, it is possible to fine-tune a model using a smaller amount of data while modifying a much smaller number of parameters (weights) thanks to ...
jpvasseur.mejpvasseur.me
[PDF] Exploring the Frontiers of LLMs in Psychological Applications - arXiv
Abstract. This paper explores the frontiers of large language models (LLMs) in psychology applications. Psychology.
arxiv.orgarxiv.org
Large Language Models and the Reverse Turing Test
They are pretrained foundational models that are self-supervised and can be adapted with fine-tuning to a wide range of natural language tasks, ...
mit.edumit.edu
New insights on the brain's emotional processing center
Emotion and perception are deeply intertwined, yet the exact mechanisms by which the brain represents emotional instances have remained elusive.
news-medical.netnews-medical.net
From Emotions to Consciousness – A Neuro-Phenomenal and ...
The James–Lange theory considers emotional feelings as perceptions of physiological body changes. This approach has recently resurfaced and modified in both ...
nih.govnih.gov
Unveiling the neurotechnology landscape: scientific advancements ...
Diving into the fascinating world of neurotechnology, this publication offers first time solid evidence about the complex neurotechnology landscape, ...
unesco.orgunesco.org
Neural mechanisms of emotion regulation: Evidence for two ... - NCBI
Results identified two separable pathways that together explained ~50% of the reported variance in self-reported emotion: 1) a path through nucleus accumbens ...
nih.govnih.gov
Emotional Processing and Motivation: I n Search of Brain Mechanisms
... Fourth, this research contributes to the literature exploring the impact of social crowding on consumer behavior. Previous research had demonstrated that ...
researchgate.netresearchgate.net
Breaking Down Self-Supervised Learning: Concepts, Comparisons ...
This article explores self-supervised learning in AI, discussing its methods, benefits, applications in various sectors, and the challenges ...
wandb.aiwandb.ai
Comparing Self-Supervised Learning Techniques for Wearable ...
In particular, we adapt recent Self-Supervised Learning (SSL) algorithms to the HAR domain and compare their effectiveness. We investigate three ...
ssrn.comssrn.com
How Well Do Unsupervised Learning Algorithms Model Human ...
We evaluate a spectrum of recent deep self-supervised visual learning algorithms on both benchmarks, finding that none of them perfectly match human performance ...
nih.govnih.gov
A comparison review of transfer learning and self-supervised learning
The study of TL firstly comes from the fact that human beings can apply previously learned knowledge wisely to solve new problems faster or provide better ...
sciencedirect.comsciencedirect.com
What is self-supervised learning in machine learning?
The term self-supervised learning has been widely used to refer to techniques that do not use human-annotated datasets to learn (visual) ...
stackexchange.comstackexchange.com
What Is Self-Supervised Learning? - IBM
Self-supervised vs. semi-supervised learning. Unlike self-supervised learning, which does not involve human-labeled data, semi-supervised ...
ibm.comibm.com
A self-supervised domain-general learning framework for ...
nature.comnature.com
Self-Supervised Learning in Deep Learning | by Sheriff Babu ...
medium.commedium.com
Self-supervised learning for medical image classification: a ...
nature.comnature.com
Self-Supervised Learning and Its Applications
neptune.aineptune.ai
Self-supervised learning in medicine and healthcare | Nature ...
nature.comnature.com
Self-Supervised Learning (SSL) - GeeksforGeeks
geeksforgeeks.orggeeksforgeeks.org
Self-Supervised Learning Advances Medical Image Classification
research.googleresearch.google
Neural Substrates of Language Acquisition - Annual Reviews
... neuroscience research examining young children's processing of language at the phonetic, word, and sentence levels. At all levels of language ...
annualreviews.organnualreviews.org
The neural substrates of improved phonological processing ... - NCBI
After the first phase of treatment, significant improvement in pseudoword reading was associated with greater activation in residual regions of ...
nih.govnih.gov
[PDF] arXiv:2301.06627v3 [cs.CL] 23 Mar 2024
Here, we evaluate. LLMs using a distinction between formal linguistic competence—knowledge of linguistic rules and patterns—and functional ...
arxiv.orgarxiv.org
A Common Neural Substrate for Language Production and Verbal ...
First, fMRI was used to identify regions associated with two different stages of language production planning: the posterior superior temporal ...
nih.govnih.gov
UMass CS685 F21 (Advanced NLP): Neural language modeling
... LLM-generated text / LLM security. Mohit Iyyer•491 ... NLP: Understanding the N-gram ...
youtube.comyoutube.com
Brain-Like Language Models: LLMs Mimicking Neural Processing
The study provides new insights into the converging aspects of brain and LLM language processing. For more details, check here. Opinion: This investigation ...
goatstack.aigoatstack.ai
[PDF] Neural Substrates of Language Acquisition - LIFE Center
Noninvasive techniques that examine lan- guage processing in infants and young children have advanced rapidly (Figure 1) and include electroencephalography (EEG)/ ...
life-slc.orglife-slc.org
Integrative modeling converges on predictive processing
Research has long probed the functional architecture of language in the mind and brain using diverse neuroimaging, behavioral, and computational modeling ...
researchgate.netresearchgate.net
Large language models, explained with a minimum of math and ...
understandingai.orgunderstandingai.org
The future landscape of large language models in medicine ...
nature.comnature.com
Large Language Models (LLMs). A Comprehensive Guide to How ...
plainenglish.ioplainenglish.io
Figure S4. Contextual embedding significantly improves the ...
researchgate.netresearchgate.net
Choosing the right language model for your NLP use case | by ...
towardsdatascience.comtowardsdatascience.com
What is Large Language Models LLM?
bureauworks.combureauworks.com
Building a private LLM: Essential steps & key insights
leewayhertz.comleewayhertz.com
Our Guide to Natural Language Processing, an Introduction to NLP
kili-technology.comkili-technology.com
Human-like intuitive behavior and reasoning biases emerged in ...
Next to the analysis of LLM performance on reasoning tasks, one can approach the issue from a normative perspective, asking whether phenomena of ...
nature.comnature.com
Cognitive Bias in High-Stakes Decision-Making with LLMs - arXiv
We develop metrics to measure cognitive bias in LLms when exposed to different “cognitively biased” and “neutral” prompts for the same task. BiasBuster compares ...
arxiv.orgarxiv.org
The Impact of Cognitive Biases on Professionals' Decision-Making
The author reviewed the research on the impact of cognitive biases on professionals' decision-making in four occupational areas (management, finance, ...
frontiersin.orgfrontiersin.org
Understanding and Mitigating Bias in Large Language Models (LLMs)
Dive into a comprehensive walk-through on understanding bias in LLMs, the impact it causes, and how to mitigate it to ensure trust and fairness.
datacamp.comdatacamp.com
Cognitive and Human Factors in Expert Decision Making
Six fallacies are presented (Table 1), which are widely held beliefs about biases that prevent correct conceptualization of bias. Then, sources ...
acs.orgacs.org
[PDF] Can LLMs Mimic Human-Like Mental Accounting and Behavioral ...
These findings reveal LLMs' tendency towards logical economic reasoning, with cultural and linguistic factors influencing their decision-making processes. 3.3.
ssrn.comssrn.com
Cognitive bias and how to improve sustainable decision making - PMC
In the present study, we try to explain how systematic tendencies or distortions in human judgment and decision-making, known as “cognitive ...
nih.govnih.gov
If cognitive biases in decision making are a given, how do ...
riskacademy.blogriskacademy.blog
What Are Biases Really And Why We Got It All Wrong About ...
fourweekmba.comfourweekmba.com
What is Cognitive Bias?
techtarget.comtechtarget.com
Cognitive bias - Wikipedia
wikipedia.orgwikipedia.org
The Effect of Cognitive Bias in Decision-Making - MPG
mahanakornpartners.commahanakornpartners.com
Cognitive bias in decision making about development permits ...
sciencedirect.comsciencedirect.com
A review of possible effects of cognitive biases on ...
sciencedirect.comsciencedirect.com

📊 ドメイン統計

参照ドメイン数: 60引用済み: 13総文献数: 129
1
Favicon for https://arxiv.orgarxiv.org
引用: 7件/ 総数: 19件
引用率: 36.8%
2
Favicon for https://openreview.netopenreview.net
引用: 3件/ 総数: 5件
引用率: 60.0%
3
Favicon for https://medium.commedium.com
引用: 2件/ 総数: 4件
引用率: 50.0%
4
Favicon for https://nature.comnature.com
引用: 1件/ 総数: 7件
引用率: 14.3%
5
Favicon for https://researchgate.netresearchgate.net
引用: 1件/ 総数: 5件
引用率: 20.0%
6
Favicon for https://linkedin.comlinkedin.com
引用: 1件/ 総数: 3件
引用率: 33.3%
7
Favicon for https://lesswrong.comlesswrong.com
引用: 1件/ 総数: 2件
引用率: 50.0%
8
Favicon for https://mit.edumit.edu
引用: 1件/ 総数: 2件
引用率: 50.0%
9
Favicon for https://wiley.comwiley.com
引用: 1件/ 総数: 1件
引用率: 100.0%
10
Favicon for https://aclanthology.orgaclanthology.org
引用: 1件/ 総数: 1件
引用率: 100.0%
11
Favicon for https://mcgill.camcgill.ca
引用: 1件/ 総数: 1件
引用率: 100.0%
12
Favicon for https://mahowak.github.iomahowak.github.io
引用: 1件/ 総数: 1件
引用率: 100.0%
13
Favicon for https://thomasramsoy.comthomasramsoy.com
引用: 1件/ 総数: 1件
引用率: 100.0%
14
Favicon for https://nih.govnih.gov
引用: 0件/ 総数: 13件
引用率: 0.0%
15
Favicon for https://sciencedirect.comsciencedirect.com
引用: 0件/ 総数: 4件
引用率: 0.0%
16
Favicon for https://ssrn.comssrn.com
引用: 0件/ 総数: 3件
引用率: 0.0%
17
Favicon for https://neurology.orgneurology.org
引用: 0件/ 総数: 3件
引用率: 0.0%
18
Favicon for https://beren.ioberen.io
引用: 0件/ 総数: 2件
引用率: 0.0%
19
Favicon for https://reddit.comreddit.com
引用: 0件/ 総数: 2件
引用率: 0.0%
20
Favicon for https://frontiersin.orgfrontiersin.org
引用: 0件/ 総数: 2件
引用率: 0.0%
21
Favicon for https://alignmentforum.orgalignmentforum.org
引用: 0件/ 総数: 2件
引用率: 0.0%
22
Favicon for https://sagepub.comsagepub.com
引用: 0件/ 総数: 2件
引用率: 0.0%
23
Favicon for https://news-medical.netnews-medical.net
引用: 0件/ 総数: 2件
引用率: 0.0%
24
Favicon for https://towardsdatascience.comtowardsdatascience.com
引用: 0件/ 総数: 2件
引用率: 0.0%
25
Favicon for https://jpvasseur.mejpvasseur.me
引用: 0件/ 総数: 2件
引用率: 0.0%
26
Favicon for https://neptune.aineptune.ai
引用: 0件/ 総数: 2件
引用率: 0.0%
27
Favicon for https://research.googleresearch.google
引用: 0件/ 総数: 2件
引用率: 0.0%
28
Favicon for https://riskacademy.blogriskacademy.blog
引用: 0件/ 総数: 2件
引用率: 0.0%
29
Favicon for https://medriva.commedriva.com
引用: 0件/ 総数: 1件
引用率: 0.0%
30
Favicon for https://mdpi.commdpi.com
引用: 0件/ 総数: 1件
引用率: 0.0%
31
Favicon for https://couchbase.comcouchbase.com
引用: 0件/ 総数: 1件
引用率: 0.0%
32
Favicon for https://diva-portal.orgdiva-portal.org
引用: 0件/ 総数: 1件
引用率: 0.0%
33
Favicon for https://superannotate.comsuperannotate.com
引用: 0件/ 総数: 1件
引用率: 0.0%
34
Favicon for https://labelbox.comlabelbox.com
引用: 0件/ 総数: 1件
引用率: 0.0%
35
Favicon for https://larksuite.comlarksuite.com
引用: 0件/ 総数: 1件
引用率: 0.0%
36
Favicon for https://elsevier.eselsevier.es
引用: 0件/ 総数: 1件
引用率: 0.0%
37
Favicon for https://techxplore.comtechxplore.com
引用: 0件/ 総数: 1件
引用率: 0.0%
38
Favicon for https://georgetown.edugeorgetown.edu
引用: 0件/ 総数: 1件
引用率: 0.0%
39
Favicon for https://springer.comspringer.com
引用: 0件/ 総数: 1件
引用率: 0.0%
40
Favicon for https://cell.comcell.com
引用: 0件/ 総数: 1件
引用率: 0.0%
41
Favicon for https://unesco.orgunesco.org
引用: 0件/ 総数: 1件
引用率: 0.0%
42
Favicon for https://wandb.aiwandb.ai
引用: 0件/ 総数: 1件
引用率: 0.0%
43
Favicon for https://stackexchange.comstackexchange.com
引用: 0件/ 総数: 1件
引用率: 0.0%
44
Favicon for https://ibm.comibm.com
引用: 0件/ 総数: 1件
引用率: 0.0%
45
Favicon for https://geeksforgeeks.orggeeksforgeeks.org
引用: 0件/ 総数: 1件
引用率: 0.0%
46
Favicon for https://annualreviews.organnualreviews.org
引用: 0件/ 総数: 1件
引用率: 0.0%
47
Favicon for https://youtube.comyoutube.com
引用: 0件/ 総数: 1件
引用率: 0.0%
48
Favicon for https://goatstack.aigoatstack.ai
引用: 0件/ 総数: 1件
引用率: 0.0%
49
Favicon for https://life-slc.orglife-slc.org
引用: 0件/ 総数: 1件
引用率: 0.0%
50
Favicon for https://understandingai.orgunderstandingai.org
引用: 0件/ 総数: 1件
引用率: 0.0%
51
Favicon for https://plainenglish.ioplainenglish.io
引用: 0件/ 総数: 1件
引用率: 0.0%
52
Favicon for https://bureauworks.combureauworks.com
引用: 0件/ 総数: 1件
引用率: 0.0%
53
Favicon for https://leewayhertz.comleewayhertz.com
引用: 0件/ 総数: 1件
引用率: 0.0%
54
Favicon for https://kili-technology.comkili-technology.com
引用: 0件/ 総数: 1件
引用率: 0.0%
55
Favicon for https://datacamp.comdatacamp.com
引用: 0件/ 総数: 1件
引用率: 0.0%
56
Favicon for https://acs.orgacs.org
引用: 0件/ 総数: 1件
引用率: 0.0%
57
Favicon for https://fourweekmba.comfourweekmba.com
引用: 0件/ 総数: 1件
引用率: 0.0%
58
Favicon for https://techtarget.comtechtarget.com
引用: 0件/ 総数: 1件
引用率: 0.0%
59
Favicon for https://wikipedia.orgwikipedia.org
引用: 0件/ 総数: 1件
引用率: 0.0%
60
Favicon for https://mahanakornpartners.commahanakornpartners.com
引用: 0件/ 総数: 1件
引用率: 0.0%

このレポートが参考になりましたか?

あなたの仕事の調査業務をワンボタンでレポートにできます。

無料でリサーチ

新しいテーマを調査する

運営会社サービス概要メディア
  • 📜要約
  • 📊ビジュアライズ
  • 🖼関連する画像
  • 🔍詳細
    • 🏷導入: 人間とLLMsの関連性
    • 🏷人間とLLMsの知識の比較
    • 🏷合理性の観点からの人間とLLMsの比較
    • 🏷認知プロセスの類似性
    • 🏷結論: 人間とLLMsの驚くほどの類似性
  • 🖍考察
  • 📚参考文献
    • 📖利用された参考文献
    • 📖未使用の参考文献
    • 📊ドメイン統計