📜 要約
### 主題と目的の要約
今回の調査では、オープンソースのAI開発プラットフォームであるSentient Foundation(sentient.foundation)に焦点を当てました。主な目的は、同社の取り組みやAI倫理に関する重要なテーマを客観的に分析し、その成果をまとめることです。
### 主要な内容と発見
- Sentient FoundationがPeter ThielのFounders Fundを中心とする投資家から8500万ドルの資金調達を行い、AI開発者の支援やオープンAIプラットフォームの進化を目指していることが明らかになりました。
- AIの透明性と倫理に関するセクションでは、オープンソースAIの機会と課題に焦点を当て、AI生成コードの課題やシステミックリスクについての議論が行われています。
- 報告書は、透明性に関する専門家を対象とした調査やインタビューに基づいて、現在のAIの透明性の状況と直面する課題を検証しています。
### 結果と結論のまとめ
Sentient Foundationの取り組みは、AI開発者の支援やオープンソースAIの進化を促進する可能性を秘めています。また、AI倫理に関する議論や透明性の重要性についての洞察は、今後のAI技術の発展に向けて重要な示唆を提供しています。報告書は、AIの透明性と倫理に関する取り組みが、AI技術の発展において不可欠であることを強調しています。
🔍 詳細
🏷 Sentient Foundationの概要
#### Sentient Foundationの概要
Sentient Foundationは、オープンソースAI開発プラットフォームであり、Peter ThielのFounders Fundを中心とする投資家から8500万ドルのシード資金を調達しました。この資金は、エンジニアの採用とSentientのオープンAIプラットフォームの進化を支援することを目的としています。同社は、AI開発者がオープンソースのモデルやデータを収益化できるようにすることを目指しており、ブロックチェーンプロトコルとインセンティブメカニズムを活用して開発者の経済的利益を一致させる予定です。
#### Sentient Foundationの詳細
Sentient Foundationは2024年7月2日に発表され、AI開発者がオープンソースのモデルやデータを収益化できるようにすることを目指しています。同社のリーダーシップには、Sandeep Nailwal、Pramod Viswanath、Himanshu Tyagiなどが含まれています。Sentientはブロックチェーンプロトコルとインセンティブメカニズムを活用し、オープンな人工知能の成長を促進する予定です。Founders FundのパートナーであるJoey Krugは、SentientがオープンソースAIのインセンティブを解決しようとしていると述べています。
Sentientのテストネットは2024年の現在の四半期に立ち上げられる予定であり、シードラウンドへの追加投資家にはRobot Ventures、Symbolic Capital、Dao5、Delphi、Primitive Venturesなどが含まれています。分散型AIの台頭に伴い、ブロックチェーンとAI技術を統合する多くのスタートアップが注目されています。Oraなどのプロトコルは、AIモデルをトークン化する技術を開発し、ベンチャーキャピタル投資も急増しています。Galaxy Researchによると、2024年第1四半期には24億9000万ドルが投資され、取引件数も増加しています。
🏷 オープンソースAIの透明性と倫理
#### オープンソースAIの透明性と倫理
AIの透明性と倫理に関するセクションでは、オープンソースAIの機会と課題に焦点を当てています。オープンソースAIの定義やAI生成コードの課題に触れ、AIからのシステミックリスクについても言及しています。ジュネーブでの議論からの合意は、AIの透明性がより良い道筋を提供し、倫理的なガイドラインや原則にコミットすることが重要であると結論付けています。
#### AIの機会と課題
2023年12月に公開されたLinux Foundation Researchによる報告書「[Standing Together on Shared Challenges](https://www.linuxfoundation.org/hubfs/LF%20Research/Standing%20Together%20on%20Shared%20Challenges%20Report%20on%20the%202023%20Open%20Source%20Congress.pdf?hsLang=en)」によると、オープンソースは1980年代から草の根運動から技術革新や社会的イノベーションの重要なドライバーに成長しています。オープンソースのアイデアは、ソフトウェアのソースコードを誰でも自由に閲覧、変更、配布できるようにすることで、グローバルなソフトウェア産業を根本的に変革し、他の分野での協力とイノベーションの強力な新しいモデルとなりました。
#### AIモジュールの要点
- **AIにおけるオープン性は、ソースコードへのアクセス以上のものを含む**
- オープンソースソフトウェア(OSS)の定義は25年ほど前から一般的に受け入れられており、「OSSは誰でも検査、変更、拡張ができるソースコードを持つソフトウェア」とされています。しかし、AIシステムは従来のソフトウェアとは異なり、異なる定義、プロトコル、開発プロセスを必要とします。
- **AI生成コードはオープンソースのライセンス、セキュリティ、規制に課題をもたらす**
- AIコードジェネレーターは、GitHubなどのプラットフォームにホストされている膨大なオープンソースコードライブラリを含む大規模なデータセットでトレーニングされています。これにより、多様なコードがAIモデルのトレーニングに使用され、実世界のコードの豊富で包括的な源泉となっています。
#### AIからのシステミックリスクは緊急のオープンソース対応を必要とする
- **バイアスと差別**
- Stanfordの2022年のAI指数レポートによると、LLMは以前よりも能力が高まっていますが、トレーニングに使用される膨大なデータの中に存在する毒性や偏見を反映し、社会の偏見や権力構造を増幅する傾向があります。
- **悪用**
- AIの能力が悪用されていることは驚くべきことではありません。AIが現実世界にますます絡み合うようになるにつれて、報告されるインシデントや被害の追跡が改善されていることから、古いインシデントが過小報告されている可能性があることを示唆しています。
- **人類への存在脅威**
- AIの長期的な進化を考えると、AIが人間の知能を等しくまたは超える機械が潜在的に人類に対する存在脅威となる可能性について懸念が高まっています。
#### 結論
ジュネーブでの議論からの合意は、AIの弱点や課題に対処するためにオープン性がより良い道筋を提供するというものです。AIの開発に関与するすべてのステークホルダーが、透明性、説明責任、公正さ、AI技術の責任ある使用を促進するAI開発のための倫理的なガイドラインや原則にコミットすることが賢明であり、AIシステムが人間の価値観や社会の幸福に合致するように展開されることを保証します。
🏷 Sentient Foundationの資金調達と成長
#### Sentient Foundationの資金調達と成長
Sentient Foundationは、Peter ThielのFounders Fund、Pantera Capital、Framework Venturesをリードとする投資家から8500万ドルのシードファンディングを獲得しました。この資金調達により、AI開発者がオープンソースのモデルやデータを収益化できるようにすることを目指し、ブロックチェーンプロトコルとインセンティブメカニズムを活用して開かれた人工知能の進化を可能にします。
#### Sentientの背景
Sentientは、オープンAIプラットフォームの開発とエンジニアの採用を支援するために資金を提供します。このスタートアップは、AI開発者がオープンソースのモデルやデータを収益化できるようにすることを目指しています。Sentientのブロックチェーンプロトコルとインセンティブメカニズムは、開かれた人工知能の進化を可能にします。
#### Joey Krug氏のコメント
「現在、誰もがモデルをコピーして無料で使用できますが、Sentientはこのインセンティブ問題を解決しようとしています。これはオープンソースAIを非効率化しています」とFounders FundのパートナーであるJoey Krug氏は述べています。
#### 分散型AIの浸透
2024年には、ブロックチェーンとAI技術を組み合わせたスタートアップが急増しています。Oraは、AIモデルをトークン化する技術を構築しており、Polychain、HF0、Hashkey Capitalから2,000万ドルを調達しました。Galaxy Researchによると、2024年第1四半期には、投資家が603件の取引に24億9000万ドルを投資し、前四半期から資金調達が29%増加し、取引件数が68%増加しました。
[参照:Cointelegraph](https://cointelegraph.com/news/sentient-85-million-round-open-source-ai)
#### Founders Fundによる共同リード
Peter ThielのFounders FundがSentientに対する重要な$85 millionのシードラウンド投資を共同リード。投資ラウンドはFounders Fund、Pantera Capital、Framework Venturesによって共同リードされ、Ethereal、Robot Ventures、Symbolic Capital、Delphiなどの多くの他の投資家からの貢献も含まれている。
#### 目標と使途
投資資金はプラットフォームの構築、AI研究者やブロックチェーンエンジニアの雇用、主要な学術機関や業界関係者とのパートナーシップの確立に使用される予定。Sentientの目標は、AI研究と開発のためのオープンソースプラットフォームを提供し、AI革新をコミュニティによって構築されたオープンAGIに整合させること。
#### 分散化と公正な分配
Sentientの中心的な貢献者は、AI開発におけるバランスの取れたアプローチの必要性を強調。Sandeep NailwalやPramod Viswanathなどの貢献者は、AIサービスへのアクセスを制御する数社の企業の危険性を指摘し、コミュニティ主導のアプローチの必要性を強調。
#### パートナーシップと協力
Sentientは、主要な学術機関や業界関係者と協力して、その使命を前進させる予定。これらのパートナーシップは、多様な専門家やステークホルダーを一堂に集め、プラットフォームの開発に貢献し、それがオープンでアクセス可能であることを確保することが期待されている。
[参照:PolygonのAggLayerがSentientの$85Mのシードラウンドを支援](https://www.crypto-news-flash.com/polygons-agglayer-boosts-sentients-85m-seed-round-for-ai-development/)
#### 挑戦と展望
分散化によるAIプロセスの一部の困難さにもかかわらず、Sentientはこれらの課題を克服し、コミュニティ主導のAIプラットフォームのビジョンを前進させることにコミットしている。AI開発へのアプローチは、多様な意見と貢献がイノベーションを促進するという信念に根ざしている。
[参照:Hawkinsight](https://www.hawkinsight.com/en/article/36dVaH)
🏷 倫理的AIの原則と実践
#### Foundations of Ethical AI: Concepts and Principles of Explainability and Trust
AI倫理は、組織にとって3つの主要な倫理的懸念を導入します:プライバシーとデータガバナンス、バイアスと公平性、透明性。AI技術の広範な利用は、FSO(金融サービス機関)や金融犯罪リスク管理システムでの倫理的な課題とリスクについての議論を促進しました。AI技術は人類の発展に重要な影響を与えており、これらのシステムに対して何をすべきか、システム自体が何をすべきか、どのようなリスクが潜在的に関与しているか、これらをどのように制御できるかについて、基本的な問題を提起しています。
#### 倫理的AIとは何ですか?
過去数年間、倫理的AIの議論は、学術的な関心から政治的および公共の議論の対象に移行しました。倫理的AIは、AIシステムに特有の技術倫理に関連する技術倫理の一部であり、AIが社会において引き起こす倫理的な害を最小限に抑えるために、人間の開発者、製造業者、運用者がどのように行動すべきかという重要な問題に関心を寄せています。倫理的AIは、ロボットや他のAIシステムやエージェントに焦点を当てた先進技術の倫理の一部であり、AIに関連する倫理原則、規則、ガイドライン、ポリシー、および規制を研究しています。さらに、倫理的AIは、AI技術の開発と使用における道徳的行動を導くために広く受け入れられた基準を利用する一連の価値観、原則、および技術です。広義には、AIに関連する倫理は、実体(人間、知的ロボット、エージェントなど)の道徳的義務と責務に関わる学問として定義できます。
[記事のリンク](https://www.niceactimize.com/blog/foundations-of-ethical-ai-concepts-and-principles-of-explainability-and-trust/)
#### AI Transparency in Practice - Mozilla Foundation
この報告書は、MozillaのInsights Teamを率いるRamak Molavi Vasse'iによって主導された多分野の研究を紹介しています。Jesse McCrosky(Thoughtworks)は、自身のデスクリサーチと責任あるAIに関する業界経験に基づいて、報告書の共著者として参加しました。透明性は責任あるAIの中心にあり、特定のステークホルダーのリテラシーとニーズに合わせた有用で実行可能な情報を提供することを目指す「意味のあるAIの透明性」という概念を探求しています。報告書は、欧州のAI法案や連邦取引委員会のAIに対する関心の高まりなど、将来の規制を踏まえて実施されました。59人の透明性に関する専門家を対象とした調査とインタビューに基づき、報告書は現在のAIの透明性の状況と直面する課題を検証しています。
#### 意味のあるAIの透明性
透明性を正しく行うことは目的を達成する手段です。適切な情報が適切な方法で提供されることが鍵です。意味のある透明性は、ステークホルダーが適切で理解可能な説明を受け取り、情報を提供することで、情報に基づいた意思決定を可能にすることを目指しています。意味のある透明性を通じて提供される情報は、ステークホルダーが異議を唱えたり、選択権を行使したり、公正性を評価したり、AIの背後にいる責任あるエンティティを特定したりするのに役立ちます。
グローニンゲン大学の研究者は、「人間は、AIシステムの出力のバイナリ的性質に対立する物語形式の説明を必要とする」と述べています。また、他の研究者は、「市民のほとんどは、単に『動作方法を説明できないが、非常に安全である』と言われた場合、どのAIシステムにも信頓しないだろう」と述べています。
AI説明ツールやXAIの開発と評価には多くの作業が行われています。しかし、そのようなツールへの信頼は一般的に低いです。これらのツールは、AIの透明性と責任を作成することに焦点を当てており、ある程度効果的ですが、解釈可能性とトレーサビリティが要件である場合、後から説明を作成しようとするよりも、設計上解釈可能なモデルを作成する方が望ましいです。
さらに、AIの透明性は、技術に焦点を当てた説明可能性/解釈可能性だけでなく、意味のある透明性を作成するためにより重要な他の方法が存在します。これには、システムのリスクや制限事項をユーザーや消費者に伝えること、アルゴリズムの意思決定の背後にいる人物に関する情報を提供し、彼らを責任を負うことができるようにすること、彼らが影響を受ける決定についてコミュニケーションを開始する方法をステークホルダーに提供すること、意思決定のために使用された仕様を分解するドキュメントを配布すること、決定後の検証レターを提供することが含まれます。
AIの透明性に関する議論はしばしば説明可能性に焦点を当てていますが、これは中心的な要素と見なされています。[しかし、[6]](https://foundation.mozilla.org#footnote-6) **AIの透明性と説明可能性は同じものではありません。**説明可能性はAIの透明性の一部であり、図に示されているように、説明可能性を超えたAIの透明性と見なされる要素が存在します。これには、使用目的、AIのメトリクス、データの出所、潜在的な社会的および環境的影響に関する情報、責任の明確な帰属など、説明可能性を超えるAIの透明性と見なされる要素が含まれます。社会的透明性は、AIシステムの使用の社会的、組織的、文化的なコンテキストを考慮し、開示することを含みます。

*図: 説明可能性を超えたAIの透明性と見なされる要素*
🖍 考察
### 調査の結果
Sentient Foundationは、オープンソースAI開発プラットフォームであり、Peter ThielのFounders Fundを中心とする投資家から8500万ドルのシード資金を調達しました。この資金は、エンジニアの採用とSentientのオープンAIプラットフォームの進化を支援することを目的としています。同社は、AI開発者がオープンソースのモデルやデータを収益化できるようにすることを目指しており、ブロックチェーンプロトコルとインセンティブメカニズムを活用して開発者の経済的利益を一致させる予定です。AIの透明性と倫理に関するセクションでは、オープンソースAIの機会と課題に焦点を当てています。オープンソースAIの定義やAI生成コードの課題に触れ、AIからのシステミックリスクについても言及しています。ジュネーブでの議論からの合意は、AIの透明性がより良い道筋を提供し、倫理的なガイドラインや原則にコミットすることが重要であると結論付けています。
### 推定
AI倫理に関する課題やシステミックリスクについて、さらに詳細な調査が必要です。具体的には、以下の点について推定する必要があります:
- AI生成コードの課題に関連する具体的な問題点とその影響
- オープンソースAIの透明性がもたらす機会と課題のバランス
- AI倫理におけるプライバシーとデータガバナンス、バイアスと公平性、透明性の具体的な課題と解決策
これらの問題を解決するためには、さらなる研究と専門家の意見を取り入れた分析が必要です。
### 分析
Sentient Foundationの取り組みは、オープンソースAIの透明性と倫理に焦点を当てており、AI開発者の経済的利益を考慮しています。しかし、AI生成コードの課題や倫理的懸念に対処するためには、さらなる議論と取り組みが必要です。透明性と倫理に関する議論は、AI技術の将来において重要な位置を占めており、適切なガイドラインや原則の策定が求められています。
### 今後の調査
今後の調査テーマ:
- AI生成コードの課題とその解決策に関する研究
- オープンソースAIの透明性と倫理に関する専門家の意見調査
- AI倫理におけるプライバシーとデータガバナンス、バイアスと公平性、透明性の具体的な課題に関する調査
これらの調査テーマを基に、AI技術の透明性と倫理に関する議論をさらに深めていくことが重要です。
📚 参考文献
参考文献の詳細は、ブラウザでページを表示してご確認ください。