概要 - 他者の心:言語モデルが人間の時的認知を示す方法

タイトル
他者の心:言語モデルが人間の時的認知を示す方法

時間
2025-07-21 17:59:01

著者
{"Lingyu Li","Yang Yao","Yixu Wang","Chubo Li","Yan Teng","Yingchun Wang"}

カテゴリ
{cs.AI}

リンク
http://arxiv.org/abs/2507.15851v1

PDF リンク
http://arxiv.org/pdf/2507.15851v1

概要

この研究は、大規模言語モデル(LLM)が人間のように時間的認知を示す方法を探查しています。研究者たちは類似度判断タスクを実施し、1525年から2524年の年々の対の類似度を比較しました。彼らは、大きなモデルが自発的に主観的な時間的基準点を確立し、この基準点から年々遠ざかるにつれて認識される距離が対数的に圧縮されるウェーバー-フェッヒナー法に従うことを発見しました。 この行動の背後にあるメカニズムを明らかにするために、研究者たちは神経、表現、情報のレベルで複数の分析を行いました。彼らは、主観的基準点で最小限の活性を示し、生物学的システムで見られるような対数的な符号化スキームを実装する時間的偏りのあるニューロン群を特定しました。また、トレーニングコーパス自体が内在する非線形の時間的结构を持っており、モデルの内部構築のための原材料を提供すると発見しました。 この研究は、LLMの認知を外部世界の主観的な構築と見なす経験主義的な視点を提案しています。この微妙な視点は、人間が直感的に予測できない異質な認知枠組みの登場の可能性を示唆し、AIのアライメントに焦点を当てた方向を指し示しています。 この研究の成果は、AIのアライメントやLLMの理解に影響を与えます。モデルの表現システムが外部環境の主観的な世界モデルを構築する形成過程に関与することを強調するという提案が、強力なアライメントには必要であることを示唆しています。この視点は、モデルの生成される表現と認知パターンを監視し、AIの環境を整理するために無害または形式化された検証可能な情報露出を構築するなど、多レベルの努力を通じて全体のパイプラインを考慮する重要性を強調しています。


推奨論文

感情記憶リンク:記憶性アノテーションがインテリジェントシステムにとって重要か?

連続変数間の一致を測定する新しい係数

明示的な符号記号エンコーダにより、省電力多倍器を実現可能します

ノイズのあるラベル学習のための対称非対称損失の連結

PurpCode: より安全なコード生成のための推論

エラskapitan上でのエクサスケール暗示的動的プラズマシミュレーション:磁圏物理学における微・宏观の連携を解決するため

多源CTスキャン分類におけるドメインシフトの抑え込みを目的とする入力空間標準化

GENIAL: ネットワーク逆転を通じて低消費電力アルゴリズム論理ユニットの生成設計空間探索

SpiNNaker2神経モーフィックMPSoCのためのエンドツーエンドDNN推論フレームワーク

非平衡データのためのコルモゴロフ・アーノルド・ネットワーク(KANs)-- 実証的視点