OpenAIの著作権について

chatGPT-4と対話しました。
メモ。

OpenAIのGPT-4におけるテキスト生成の著作権と利用規約

  • OpenAIはGPT-3までの出力の著作権についてユーザーに帰属すると明確に表明しているが、GPT-4についての具体的な情報は不明。
  • GPT-4によって生成されたテキストの使用に関しては、OpenAIの利用規約に従う必要がある。具体的な規定や条件はOpenAIの公式ウェブサイトや利用規約の文書で確認できる。GPT-3までの利用規約では、生成されたテキストの著作権はユーザーが所有するとされている。GPT-4についても同様の方針が適用されると考えられるが、最新の情報や詳細についてはOpenAIの公式ウェブサイトで確認することが推奨される。
  • OpenAIの公式ウェブサイトのURLはhttps://www.openai.comであるが、特定のUse Case Policyページを開くことはできない可能性がある。この問題は一時的な接続問題やページが非公開になっているためである可能性がある。

chatGPT-4の生成した文章を使った場合、OpenAIの著作権に抵触することがありますか?

OpenAIはGPT-3の利用者が生成した出力の著作権について明確に主張していません。しかし、基本的にはユーザーが生成した出力(GPT-3が生成したテキスト)の著作権はユーザーに帰属するとされています。ただし、これはGPT-3の利用規約に基づくものであり、GPT-4についての具体的な情報は私の知識データベースの更新(2021年9月まで)以降に公開される可能性があります。

OpenAIのGPT-4は、GPT-3.5と比較して進歩した推論能力を持つ最新のモデルです。GPT-4はより広範な一般知識と問題解決能力を持ち、より困難な問題をより正確に解くことができます。また、より創造的で協調的で、創造的なタスクや技術的なライティングタスク、ユーザーのライティングスタイルの学習などに対応します​1​​2​。

GPT-4はGPT, GPT-2, GPT-3の研究の軌跡を辿っており、より多くのデータと計算を利用してますます洗練され、能力のある言語モデルを作り出しています。OpenAIは、GPT-4を作るために6ヶ月を費やし、不適切なコンテンツへの応答を82%減らし、事実に基づいた応答を40%増やすことを達成しました​3​。

GPT-4の開発には、人間のフィードバックが大いに活用されています。ChatGPTのユーザーからのフィードバックを含む多くの人間のフィードバックを取り入れて、GPT-4の振る舞いを改善しています。また、AIの安全性とセキュリティを含む領域での早期フィードバックのために50人以上の専門家と協力しています​4​​5​。

さらに、GPT-4はMicrosoft Azure AIスーパーコンピュータで訓練され、AzureのAI最適化インフラストラクチャが世界中のユーザーにGPT-4を提供することを可能にしています​6​。

OpenAIは、AIが全ての人類に利益をもたらすことを確保するという使命の一部として、モデルの責任ある開発、展開、使用を確保することを目指しています。具体的には、ツールの使用を監視し、モデルのリスクと能力について学んだことに基づいて安全対策を更新します​7​。

しかし、GPT-4にはまだ解決すべき多くの問題があります。社会的なバイアス、幻覚、敵対的なプロンプトなどがその一部です。

OpenAIは、モデルの限界を克服するために、透明性の推進、ユーザー教育、そして広範なAIリテラシーを促進しています。また、人々がモデルの形状に影響を与える入力の方法を拡大することを目指しています​1​。

OpenAIの原則は、ハームの最小化、信頼の構築、学習と反復、そして信頼と安全性の先駆者であることを含みます。これらの原則は、モデルの安全な使用と向上に貢献します​2​。

OpenAIはまた、GPT-4を使用していくつかの革新的な製品を作り出す組織と協力しています。これらには、Duolingo(GPT-4が対話を深める)、Be My Eyes(GPT-4が視覚的なアクセシビリティを変革)、Stripe(GPT-4がユーザー体験を合理化し、詐欺を防止)、そしてMorgan Stanley(Morgan StanleyのウェルスマネジメントがGPT-4を活用してその広大な知識ベースを整理)が含まれます​3​。

GPT-4は、ChatGPT PlusとAPIとして利用可能で、開発者がアプリケーションやサービスを構築するために利用できます​4​。

chatGPT-4の生成した文章を私が使った場合、OpenAIの著作権に抵触することがありますか?

OpenAIのGPT-4によって生成されたテキストの使用に関しては、OpenAIの利用規約によります。具体的な規定や条件はOpenAIの公式ウェブサイトや利用規約の文書で確認することができます。

しかし、OpenAIのGPT-3までの利用規約では、GPTによって生成されたテキストはユーザーが所有すると明記されています。このため、GPT-4についても同様の方針が適用されると考えられます。ただし、最新の情報や詳細についてはOpenAIの公式ウェブサイトで確認してください。

該当するOpenAIの公式ウェブサイトのURLを教えてください。

申し訳ありませんが、OpenAIのUse Case Policyページを開くことができませんでした。これはページが非公開になっているか、または一時的な接続問題である可能性があります。しかしながら、私の知識の範囲内で回答すると、OpenAIのGPT-3やそれ以前のモデルについては、生成されたテキストに対する著作権はユーザーに属するという方針でした。GPT-4についても同様の方針が適用されると考えられますが、これは確定的な情報ではなく、最終的な解釈はOpenAIの公式ガイダンスによるものです。

公式ウェブサイトで最新の情報を確認することをお勧めします。以下にOpenAIの公式ウェブサイトのURLを提供します:

OpenAI公式ウェブサイト

生成系AIについていいたいことあれこれ

memo

・良心(システム1)と良心(システム2)
・汎化と特化
・正確ではない情報が含まれるということ
・生成のコスト、評価のコスト
・探索・探査と生成
・幻覚効果(Hallucination)
・アルゴリズムとデータ
・良心システムを設定すること

LLMにおけるデータのもつ課題

執筆中

参考

3. 「日本語に特化した言語モデル」が直面する言語固有の課題
なぜ英語圏や中国語圏の汎用的な大規模言語モデルと比較して、日本語に特化した汎用的な大規模言語モデルが小規模に留まっているのでしょうか。これには、日本語固有の課題や難しさがあります。 最初の課題として、これまで言語モデルで日本語を使用する際、コーパス(と呼ばれる自然言語の文章を構造化して大規模に集め、品詞等の言語的な情報を付与したもの)が少なかったり、例えあったとしても、テキスト内にノイズがたくさん存在しているため、使用する際に上手く除去しなければいけませんでした。

また、インターネット上のテキストはウィキペディアのコピーが多く、教師データとして適切なものが少ないということもあります。共通語である英語であればデータ量もさることながら、研究者同士のつながりで質の良いデータが共有されることに対し、日本語はこれと比較して、データ量・研究者間のデータ共有数ともに量は多くありません。

さらに日本語独自の難しさとして、以下が挙げられます。

日本語は語順の自由度が高いことや、日常における必須語が多い。
さまざまな表記や同じ音で異なる語が存在する。
方言の多様性で同じ意味の単語でも日本全国で異なる単語の組み合わせになる。
日本語の話者はひらがな・カタカナ・漢字・ローマ字など、さまざまな文字を使って1つの文章を作り、同じ単語を複数回表記する場合には書き方を変える。
日本語の話し言葉は文中の主語や目的語を省略しがちなので、テキストを読む際には、その文中の単語の省略を考慮しながら意味を解釈していく必要がある。
日本語に特化した汎用的な大規模言語モデルが作られれば、これらの問題を解消することができ、さらに日本語の会話や文章を正確に推定することができるようになります。

NTTデータ

参考2

大規模言語モデルをだます Hindsight Neglect タスクとは

Multi-Level Intermediate Representation

コンパイラが進化しているのかな?

https://mlir.llvm.org/

MLIRプロジェクトは、再利用可能で拡張可能なコンパイラ・インフラを構築するための新しいアプローチである。MLIRは、ソフトウェアの断片化に対処し、異種ハードウェアのコンパイルを改善し、ドメイン固有のコンパイラを構築するコストを大幅に削減し、既存のコンパイラの接続を支援することを目的としています。
(DeepL翻訳)

もうちょうい勉強せねばならん。

地理に魅せられる素敵な場所:駒沢の「地理系ブックカフェ空想地図」

私たちは、未知の場所や人々に魅了されることがよくあります。
地図が私たちを魅了する理由は、それが未知の世界への扉を開くからです。地図は、世界中の場所に対する興味を刺激し、私たちの想像力をかき立てます。さらに、地図を通じて異文化に触れることで、知識や理解が深まり、人間としての成長が促されます。
東京・駒沢にある「地理系ブックカフェ空想地図」は、このような興味を持つ人にとって理想的な空間です。このカフェでは、地図や地理に関する多様な書籍が提供されており、それらを読みながらカフェを楽しむことができます。
インターネット上でも、「地理系ブックカフェ空想地図」は高い評価を受けています。
また、空想地図の展示も魅力的なポイントです。
「地理系ブックカフェ空想地図」は一般的なカフェとは異なり、完全予約制となっています。これにより、来店者が地図や書籍にじっくり触れ合い、自分のペースで楽しむことができます。
このカフェでは、貴重な図書が盗まれないようどのような対策がとられているのでしょうか。一般的な図書館では、貴重本は特別なケースに入れられ、来店者が直接触れないように保護されていますが、このカフェでは手に取ることが重要です。ただし、一般的な図書館と同じラインアップだと魅力が減るかもしれません。
残念ながら、関西地方にはまだこのようなカフェは存在していないようです。
地図好きだけでなく、多くの人にとって魅力的なカフェですね。自分の関心のなかったことや知らなかったことにも気づくかもしれません。まさに、バーチャル旅行のようです。
私は、都市や田舎に図書館が増えることを望みます。
ただし、公営の図書館を増やすのはなかなか難しいでしょう。
そこで、本屋が図書館のような機能を持ったり、カフェが図書館風になることで、その役割を果たせるかもしれません。これにより、さまざまな場所で知識や文化に触れる機会が増え、コミュニティ全体が活性化されることでしょう。
地理系ブックカフェ空想地図のような独自のコンセプトを持ったカフェや施設が、日本全国に広がることで、地域の魅力を発信する新たな場として機能し、多様な価値観や知識が交流されることになります。

(この文章はchat GPT4.0の手助けを借りています)

キリスト教主義からAIを考える

Doshisha Spirit Week 2021 秋にて、次の講演をしました。
人工知能(Artificial Intelligence=AI)をキリスト教主義的視点で捉えてみる
というのが一つの新しい試みです。

クララは電気羊の夢を見るか?
廣 安 知 之

講師紹介〔ひろやす・ともゆき〕
同志社大学生命医科学部教授
〔研究テーマ〕ヒト情報のAIとICTによる知的処理

人工知能(Artificial Intelligence=AI)をキリスト教主義的視点で捉えてみる

 生命医科学部の廣安知之です。1998年から工学部の知識工学科にお世話になり、2008年に生命医科学部が立ち上がったタイミングで転籍し、現在、医情報学科に属しています。また、ヒューマンインフォマティクス研究室を日和悟准教授とともに主催しています。同志社大学に赴任してから、AIと情報処理の技術を使ったアルゴリズムの開発にかかわる研究を行っています。
 人工知能(Artificial Intelligence=AI)は、毎日、その単語を聞かない日はないほどよく使われる技術単語となりました。AIの定義は、Wikipediaによると「人工知能は、人工的にコンピュータ上などで人間と同様の知能を実現させようという試み、或いはそのための一連の基礎技術を指す。」とありますが、研究者によってその定義が異なっている状況にある余白のある技術です(文末〔参考文献〕1)。
 本日は、Doshisha Spirit Weekの講演にあたり、AIとキリスト教という2つのキーワードに関する話題提供をしたいと思います。
 AIとキリスト教についての話題提供は、無謀に見えます。今でも私も無謀だと思っています。私の専門である人工知能とキリスト教の関係について考えるきっかけになったのは、2016年度から始まった「同志社大学良心の実証的・実践的研究プロジェクト」への参加でした。プロジェクトリーダーの神学部の小原克博先生から、このプロジェクトを推進するにあたり、AIと良心について議論してほしいというリクエストがあったのです。AIと良心というテーマも無謀なテーマでした。途中は端折りますが、小原先生を始めとして多くの先生方のご協力を得て、AIと良心というテーマで考えることができ、小原先生がまとめられた2冊の図書において結果を公表することができました(文末〔参考文献〕2、3)。そしてさらに、小原先生よりAIとキリスト教について講演してもらえないかというリクエストがあったのです。さすがに最初はお断りしたのですが、議論を続ける中で少しずつ重なる部分も見えてきました。そして、最後に小原先生が言われた一言で少し光明が見えました。「宗教学の一面は、人間とは何なのか?にあります。」という一言です。AIは先に書いたとおり、「人工的に人間と同様の知能を実現させようという試み」です。すなわち、AIを考えるという作業は「人間とは、人間の知能とはということを考える」ことになります。NHKでAIの紹介番組がありましたがそのタイトルも「人間ってナンだ?」でした(文末〔参考文献〕4)。AIも宗教学も「人間とは何なのか?」という共通点があることを教えてもらったのです。
 同志社大学はキリスト教主義の大学です。本講演では、AIをキリスト教主義的視点で捉えてみることを試みます。キリスト教主義的なやり方も様々あるとは思いますが、キリスト教・聖書から問いを立てAIを検討することがその1つではないかと考えています。私は、キリスト教や宗教学については素人であり、本講演では、専門分野については多くを語らない内容になり、また、何か結論を導こうとするものではありません。それでも、私の話をきっかけにして、みなさんとともに考えることができればと思っております。これがConscienceであり、同志社の良心だと考えています。

第3次ブームを迎えた
人工知能(Artificial Intelligence=AI)
 「人工知能(Artificial Intelligence=AI)」という名前は1956年にダートマス会議でジョン・マッカーシーにより命名されたとされています。AIは、これまでにブームと衰退を繰り返し2010年過ぎから第3次のブームを迎えています。今では多くの場面でAIという単語が見られ、さまざまな分野で成果をあげています。
 人の知的な作業の一つに探索があります。その探索能力を測るのにAIが知能ゲームでどの程度、人に勝つことができるのかをみる方法があります。AIが初めてチェスの世界チャンピオンに勝利したのは、1997年でした。IBMが開発したDeep Blueとよばれるスーパーコンピュータを利用しました。IBMではこのシステムをさらに質問応答システムに拡張し、米国の人気クイズ番組「Jeopardy!」にチャレンジし、2011年に人に対して総合でWatsonが勝利しました。2017年になると、コンピュータが現役の将棋の名人位保有者に勝利し、将棋の世界でもAIの実力が認められ始めました。囲碁は将棋より遙かに探索が困難とされていますが、2016年に、Deep Mind社が構築したAlphaGoが世界トップ棋士の李世乭(イセドル)氏に勝利し世界を驚かせました。このように年々、AIは探索の分野で実力をつけつつあります。
 画像探索、生成、識別、分類の分野でも非常に多くの成果をあげています。そこで中心になっているAIの技術が機械学習と呼ばれる技術です。特にDeep Learning(深層学習)がコアな技術であり、革新的な成果をあげました。現在では、自動運転分野、農業分野、医療分野などでAIは広く活用されています。

汎用AI クララ
 このように様々な分野で成果をあげているAIですが、人のように複数のことを同時にうまく処理するわけではありません。人はルールを学ぶことによりチェスも、将棋も、囲碁も遊ぶことができ、実力を上げていくことができます。また、人は音楽を楽しむこともできれば絵画を嗜むこともできます。食事やお酒を味わうこともできます。
 一方、AIは人工物であり、当初設計された目的にあった、特化した機能しか持ち合わせません。これを「特化型AI」と呼ぶことがあります。将棋や囲碁で名人に勝利したAIは、それぞれの分野に特化したAIというわけです。それに対して、人のように多くのことができる機能を有するAIは「汎用型AI」と分類されます。特化型AIは数多く作られてきましたが、汎用型AIの出現はもう少し先になりそうです。また、「特化型AI、汎用型AI」という分類は、場合によっては「弱いAI、強いAI」ともあらわされます(文末〔参考文献〕5)。
 まだ実際には、世の中に出現していない「汎用型AI」ですが、昔から多くの人の関心を集めていました。映画「ターミネーター」では、汎用型AIが未来社会に現れ人類絶滅の危機に陥れるというストーリーでした。『アンドロイドは電気羊の夢を見るか?』は、人と汎用型AIとも言えるアンドロイドとの関係を描いた小説で、映画にもなりました(文末〔参考文献〕6)。最近では、ノーベル賞を受賞した、カズオ・イシグロが、汎用型AIが主人公となる小説、『クララとお日さま』を公開しています(文末〔参考文献〕7)。AIがお日さまに対して神ともいえる感覚を覚えて行動することや、AIの終末、AIの個性など非常におもしろい視点をいくつも披露している小説です。この小説の主人公が「クララ」でした。
 本講演では、「汎用型AI」がどういう存在であるべきかの議論をしたいと思っています。最新型の汎用型AIの「クララ」は、数十年前に問われたとおり「電気羊の夢を見るでしょうか?」テレビアニメの「アルプスの少女ハイジ」にでてくる「クララ」ではないですよ。

AIの倫理問題と
キリスト教主義的視点で
AIを考えるということ
 汎用型AIが出現すると、いくつかの問題が起こると杞憂されています。汎用型AIを取り扱った多くの映画では、それらが反乱したり人に害を及ぼしたりします。その他、AIの知性のベースになっている知識にバイアスがあった場合、AIの判断や行動も問題になることが予想されます。性差別、人種差別などが生じ、就職の際に問題が生じる危険性です。また、問題が起こった場合に誰が責任をとるのかという課題もあります。技術的には自動運転は開発目前です。これは特化型のAIを使った例ですが、責任問題や法律の対応などが未完成のままです。汎用型AIが出現すると人が従事していた仕事が奪われる危険性も指摘されています。このように多くの課題が汎用型AIにはあるのです。
 この問題に対して各国や関連する学会は努力し、対応しようとしています。内閣府は「人間中心のAI社会原則検討会議」を立ち上げ、議論しています。米大統領は「米国のAIにおけるリーダーシップの維持に関する大統領令」に署名しました。IEEE(米国電気電子学会)は、「倫理的に調整された設計 第1エディション」を公表し、日本の人工知能学会も倫理指針を出しています。
 しかしながら、科学は、倫理判断に対して言及ができるのでしょうか。その判断するのは人そのものであり、その判断を行うという行為こそがまさに人間らしい行動であり、判断を科学で規定することは難しそうです。ユヴァル・ノア・ハラリ氏はその著書『ホモ・デウス』で人間の法や規範や価値観に超人的な正当性を与える必要があると述べています(文末(参考文献〕8)。科学は倫理判断に言及はできないが、事実には科学的手法により言及できる。そのため、宗教と科学が組み合わさることで、人間の行動の指針を与えることができる可能性があるとも述べています。このように「汎用型AI」に対する倫理判断を行うためには、宗教と科学を組み合わせる必要があります。
 同志社大学は、ミッション・スクールではありません。新島は、国を背負うべき日本の若者を教育するために、キリスト教主義を徳育の基本としました。それは、新島の見た米国が驚くべき自由の国であり、その根幹となすのがキリスト教であると見抜いたからでありましょう。「汎用型AI」に対する倫理判断を行うためには、宗教と科学を組み合わせる必要があるとするならば、「キリスト教」と「AI」を組み合わせて考えることは同志社大学だからこそできるのではないでしょうか。この講演では、聖書から問いをたて、「汎用型AI」に関してどのようなことが考えられるかをキリスト教主義的検討手法にて行うことを提案します。具体的には、聖書にかかれている事項から次の3問を立て検討を試みます。
(1)世界はどのように作られたのか?
(2)創造主はどうしてこんな人間を造ったのか?
(3)バベルの塔の物語からの学びは?

問1 世界はどのように
作られたのか?
 創世記には、創造主なる神が6日間かけて世界を創造されたとあります。最初に光を造られ、次に大地や生き物を造り、最後に人を造られました。
 この話にはいくつか「汎用型AI」に関連した重要なポイントがあると思います。まず、創造主が世界を造られ、創造主は満足されたということです。造られた後、「見て、良しとされた」とあります。
 次に、創造主はあらゆるものを創り出すことができ、そして、神に似せて人を創造されたというポイントです。また、その創り出されたものは無から造られ、材料を含めて一切合切を創造主が造られたということもポイントです。これらのポイントについては次の章で別の問いを立ててもう少し議論します。
 創造主はあらゆるものを創り出すことができるにもかかわらず全てのものを自身で創り出されませんでした。1週間で作られなかったものは、人によって造ることにされたのです。システム工学では人工物・システムのできることを「機能」と呼びます。また、処理する手順はアルゴリズムと呼ばれます。コンピュータではアルゴリズムがプログラムによって実装され実行されます。人にインプットされた機能、アルゴリズムは何でしょうか?
 創世記からわかることは、人も創造主と同じようにものを創り出す機能があり、それを実行するアルゴリズムが内在されました。人が作るものは「人工物」と呼ばれ、AIも人工物の一つです。次の問いでは人に内在されているアルゴリズムについて考えてみたいと思います。

問2 創造主は
どうしてこんな人間を
造ったのか?
 創造主はどうしてこんな人間を造ったのかが次の問いです。
 創造主は神に似せて人を造りました。しかし、人は創造主を裏切ってしまいます。旧約聖書「創世記」にある失楽園の挿話では、蛇にそそのかされたアダムとエバが、神の禁を破って「禁断の果実」を食べ、エデンの園を追放されてしまいます。創造主に注意されたにもかかわらず、創造主のようになりたいという気持ちがあり、その欲望が勝ってしまったわけです。そして創造主の怒りをかってしまいます。
 創造主はなんでもできるはずです。ところが、人は創造主を裏切ってしまいます。そうなると、創造主はなぜ、創造主を裏切る人を作ったのかという大きな疑問が生じます。天地創造されたときには、創造主はすべてに満足されていたのです。創造主を裏切らない人を造ったほうがよかったのではないでしょうか。創造主を裏切らない人を造っておけば、創造主は今でもおだやかに過ごせたのではないでしょうか。
 エデンの園の逸話からわかることは、もともと人には「創造主のようになりたいと感じる機能があった」ということです。しかしながら、人はこの機能を利用してはいけなかったのです。これは、人がある行為をするかしないかを決める際に、あらかじめ必然的に決まっているわけではなく、その人の意志で決定するという自由意志の問題が存在するということでしょう。そして、人には自由意志により問題を解決する機能とアルゴリズムが内在されているように思えます。すなわち、人は良きことも悪しきこともできるような存在であり、創造主を裏切ることができる自由が創造主から与えられているのだと考えることもできるでしょう。創造主は、創造主に似せて人を造りました。そうなると、AIも自由意志を持つように造るべきではないでしょうか。たとえAIが人を裏切るとしてもです。それは何故でしょうか。
 現在のAIは第3次ブームの最中にあります。言い換えれば、これまで2回、AIの実現を期待して挫折した歴史があります。挫折した理由はいくつかあります。その一つに、知識をすべて洗い出すのが非常に困難であるという問題があります。知識をすべて書き出して、機械に覚えさせ対処することができれば、その機械は人と同等の作業が可能であることは、論理的にはあり得ます。しかしながら、実際に知識の洗い出しをやってみるとすぐに破綻することがわかります。人が処理している知識はあまりに膨大で、洗い出す方法もよくわかりませんし、知識をどのようにうまく使うのか、実時間内でデータにアクセスできるのか、莫大なデータをどのように保存するかなどなどの困難が伴います。
 汎用型AIの実現の際に直面する課題の一つに「フレーム問題」があります。実世界ではさまざまな事象が起こりえますが、何かを実行する際には、当面の問題と関係するかしないかをふるい分け、関係しない問題を無視して関係する問題だけを対応しなければ無限の時間がかかってしまいます。すなわち、フレームを作って、そのフレーム内で考えることが必要なのです。しかしながら、当面の問題がどんなフレームに、どのフレーム内に対応しているのかを判断する必要があり、結局は無限の時間がかかってしまいます。人はこれをうまくやっているように見えます。これがフレーム問題です。この問題からもわかるように全ての知識を洗い出し、行動をルール化することは非常に困難です。
 また、仮にある時点での知識の全てを書き出せたとしてもそれでは不十分です。創造主の造られた世界は刻一刻と変化します。親が子を作る仕組みを有することが生命の本質であるならば、世界は必ず時間が変わると変化します。システム工学では、問題に時間要素のパラメータを有する場合、その問題を動的な問題と呼びます。問題が動的であり、無限時間を対象にせねばならない場合、そこに存在する問題の数は無限になり、全て洗い出すことは不可能です。同志社大学の赤ちゃん学研究センターは、人が生まれる前から、生まれた直後、その発達を一貫して研究するというユニークな研究センターです。そのセンターの研究においても人の成長には外部からの刺激が非常に重要であることが明らかとなっています。
 これに対応する方法、アルゴリズムがその時その時にうまく対応できるようにする方法ではないでしょうか。これをできるようにしている根源が自由意志なのではないでしょうか。汎用型AIを実現するためには、かつて創造主がなされたように自由意志を持つAIの構築が必要なのかもしれません。自由意志を持たせるためには想定した領域外の探索(外挿探索)をさせる必要がありますが、今のところ人が行っているような精度の高い外挿探索の実現は困難です。
 ただし、人は、自由意志を持つ人工物を創る機能は有していますが、それを使うことが許されているのでしょうか。次の問いで考えてみたいと思います。

問3 バベルの塔の
物語からの学びは?
 最後の問いは、バベルの塔の物語です。
 人は石の代わりにレンガをつくり、漆喰の代わりにアスファルトを手に入れます。手にいれた新しい素材を使って、人は天まで届く塔を建てて、有名になろうとし、その結果、神の怒りをかったという話だと思います。人の行動のどこが悪かったのでしょうか。
 天地創造の際に、創造主は材料を含めて一切合切無から造られ、造られなかったものについては人によって造られることを期待されます。そのため、創造主は人に材料から作り出す能力(機能)を人に与えていることになります。その能力を使って人は材料をつくり人工物を作るのですが創造主によって叱られてしまうのです。この逸話からわかることは何でしょうか。
 ここでも、人が持つ機能をすべて自由に使っても良いわけではないということに気づきます。作ってもよいもの、作ってはいけないもの、よく考えて作らなければならないということでしょう。また、人は人であるべきであり、創造主の如く振る舞う行為は好ましい行為ではないということでしょう。人が創造主ごとき力を得ようとする、人の能力の過剰なエンハンスメントも禁止されているように感じます。人の分を知る必要があり、身の程を知る、自分を過大評価しないことが重要でしょう。
 自由意思の議論と同様に、人が何をすべきかを人自身が深く考えることを求められているのでしょう。AIを構築するときにも、作りたいという欲求に行動をまかせるのではなく、よくよく行動を吟味する必要があるのでしょう。心理学者のスタノビッチとウェストは、思考には早い思考と遅い思考の二つのモードがあることを示しました。そして、それぞれ「システム1」「システム2」と呼びました(文末〔参考文献〕9)。システム1は情動と連動し、直感的で速い思考モードのことです。システム2は論理的で遅い思考モードであり、論理的、統計的な思考はこのモードで行います。
 良心に基づく行動もこれら二つのモードが存在するでしょう。良心(システム1)は、直面する問題に対応しようとする動機となります。良心(システム1)に起因する行動は直観的であり、迅速にものごとに対応できます。一方で、論理的に多くのことを検討して問題に対応しなければならない場合もあるでしょう。すなわち、良心(システム2)は、論理的に多くのことを検討して問題に対応しようとする動機となり、「熟考しようとする良心」のことを指します。
 「特化型AI」はこれまでの人工物の延長上にある人工物だと考えられます。「汎用型AI」は、自由意志を有する必要があります。一歩、創造主に近づいているでしょうか。良心(システム2)に起因する行動は、時間を要します。「汎用型AI」を構築しようとしている時に、我々はシステム1ではなくシステム2を起動して行動しているでしょうか。

まとめ
 人工知能(Artificial Intelligence=AI)は「特化型AI」と「汎用型AI」に分類できます。本講演では、「汎用型AI」について、聖書に見られる逸話から検討を進めてみました。
 明確な結論を得るには至っていませんが、一つの方向性は見出せたのではないかと感じます。また、今回お話しした聖書の言葉から、AIや科学を語るキリスト教主義的な手法は見直されて然るべきだと思います。科学に倫理が必須な時代になりましたが人の行動指針を制約するには宗教の力を借りないとできないかもしれないからです。そしてこのキリスト教的な科学とのやりとりは、同志社大学が得意とするところでしょう。
 最初にも申し上げましたが私の話をきっかけにして、みなさんとともに考えることができればと思っております。これがConscienceであり、同志社の良心だと考えています。本日はありがとうございました。

〔参考文献〕
[1]松尾 豊 『人工知能は人間を超えるか:ディープラーニングの先にあるもの』(KADOKAWA 2015)
[2]同志社大学良心学研究センター 『良心学入門』(2018)
[3]同志社大学良心学研究センター 『良心学入門、良心から科学を考える:パンデミック時代への視座』(2021)
[4]NHK 「人間ってナンだ?超AI入門」制作班 『超AI入門―ディープラーニングはどこまで進化するのか』(2019)
[5]鳥海 不二夫 『強いAI・弱いAI:研究者に聞く人工知能の実像』(丸善出版 2017)
[6]フィリップ・K・ディック 『アンドロイドは電気羊の夢を見るか?』(浅倉久志訳 早川書房 1977)
[7]カズオ・イシグロ 『クララとお日さま』(土屋政雄訳 早川書房 2021)
[8]ユヴァル・ノア・ハラリ 『ホモ・デウス:テクノロジーとサピエンスの未来 上・下』(柴田裕之訳 河出書房新社 2018)
[9]ダニエル・カーネマン 『ファスト&スロー:あなたの意思はどのように決まるか?』(村井章子訳 早川書房 2014)

   2021年10月26日 同志社スピリット・ウィーク秋学期
オンラインによる「講演」記録

ヒトが人工物だと判断されるとき

ChatGPTの普及に伴い、その技術の高さに驚嘆し、世間が大いに話題にしています。

GPTはAIによるサービスであり人工物ですが、人工物がAIかどうかを判断することは容易ではありません。
AIの定義がまだ確立されていない現状では、その判定が難しいことは当然です。
しかし、定義ができたとしても、人工物をAIと判断することは依然として困難です。

チューリングテストは、AIが人間と同等の知性を持っているかどうかを評価する手法の一つです。このテストは、アラン・チューリングによって提案されました。
彼は1950年の論文「Computing Machinery and Intelligence」でこの試験を紹介しています。
チューリングテストは通常、以下の手順で実施されます。
1. 人間の評価者が質問を投げかける。
2. AIと人間の回答者がその質問に対して回答する。
3. 評価者は回答を検討し、どちらがAIであるかを判断する。
評価者が両者の区別がつかない場合、つまりAIの回答が人間の回答と同程度の知性を示すと判断された場合、そのAIはチューリングテストに合格したとされます。

2012年から、私は大学一年生の授業でAI技術の概要について2コマ話しています。その際、学生に伝えたいと思ったことの一つは、次のような事実でした。
つまり、AI技術の進展に伴い、人間がAIあるいはそれ以下と判断されてしまうことがあるということです。
2018年に出版された「良心学入門」でも、私はこの点を主張しました。
AIは人工物であり、このような状況下では、人間が人工物以下と判断されかねません。
これは、人間とは何か、人間の尊厳とは何かという問題を揺るがすことになります。
そのため、私たちは自分自身を精進し、常にバージョンアップしていく努力が求められます。
そして、ChatGPTの登場が、私が懸念していた状況を具現化していることを示唆していると考えています。

(この文章はchat GPT4.0の手助けを借りています)

良心学入門

amazon

2018年に小原先生が編集に携わり、「良心学入門」というタイトルの本が出版されました。
廣安は第15章「人工知能と良心」を執筆しています。2018年というタイミングは、2014年11月頃から日本で急速に進展したAIの第3次ブームが始まった時期であり、文理融合的な視点での書籍としてはかなり早期の出版だったと思われます。

現在読み返してみると、当時の文章は論旨がぼやけている感じが否めません。
今もう一度書き直して改善したいところです。

ただ、その当時の状況では仕方なかったところもありました。
人工知能と良心を結びつけるのは無理があるお題だったのです。
私の専門はシステム工学であり、システムという人工物が良心を持つという考えには違和感を感じていました。良心を持つべきは使う側の人間だと思っていたからです。そのため、文章の目的が曖昧になり、良心に直接対峙せず、歴史を振り返る内容になってしまいました。

明確な主張はしていないものの、この文章で伝えたかったポイントは以下の通りです。
1)現在は第3次ブームであること。
2)人工知能は結局のところ、人工物であること。
3)人工知能(AI)には、強いAIと弱いAIの2つのカテゴリが存在すること。
4)作成された人工物が本当に人工知能であるかどうかを判断するのは非常に困難であり、それを判断できる人間も困ってしまうこと。

そして、背後にある感情としては、
1)第3次ブームは一過性のものであり、いずれ終わると考えていた。
2)人工知能が抱える問題は、ほとんどが人工物に共通する一般的な問題であり、人工知能固有の問題ではないこと。
例えば、新しい道具が登場すると、その使い方で人に危害や損害を与える場合があるが、それは人工物だからであり、人工知能特有の問題ではない。仕事が奪われるという議論もあるが、新しい優れた人工物は常にそのような側面を持っている。
3)弱いAIは、能力が低いわけではなく、設計された問題に対しては非常に強力であること。
一方、強いAIはすぐには現れないと考えていた。
4)人工知能であるかどうかを判断することが、人間が人工知能と誤認される危険性を含んでおり、これがもっとも大きな問題であるということ。
良心との関連性を強調しすぎて、文章がぼんやりとしたものになってしまったが、これらの論点をもっとストレートに伝えるべきだったと後悔しています。

現在の状況については、以下のように考えています。
1)個人的には、第4次ブームが始まっていると考えています。
2)人工知能は、結局のところ、人工物であることを忘れてはならないということ。
特に、AIに対して十分な議論が必要な現代において、その議論が科学技術の問題なのか、人工物の問題なのか、それとも人工知能固有の問題なのかをきちんと区別して考える必要があります。
3)対話型の意味で言うと、強いAIが登場しているように感じます。どんな話題にも十分に対応できるからです。これは予想よりも早く実現しました。弱いAIの向上には内挿探索が効果的ですが、強いAIを作るには外挿探索が必要で、そのアルゴリズムを作る手がかりがないため、強いAIの登場はまだ先だと考えられていました。しかし、Generative Modelが膨大なデータを処理した結果、我々は強いAIが出現した(あるいは出現したと錯覚した)と感じるレベルまで達しました。これは、強いAIを作るには外挿探索が必要ではなかったのかもしれませんし、我々が外挿探索を行っていると思っていたのですが、実際には内挿探索がほとんどだったのかもしれません。正直、人間らしさとは外挿探索だと思っていたので、この気づきには驚愕しています。
4)今、まさに人工知能と呼ばれているものが本当に人工知能なのかどうかが判断されようとしており、その行為がリアルな人間を人工知能と誤認する危険を含んでいます。人の仕事が奪われるとか、人の情報が悪用されるとかのレベルではなく、人間が人工物以下として扱われる危険にさらされているのです。

これが、2023年5月の段階での現状かなあ。
(この文章はchat GPT4.0の手助けを借りています)

良心から科学を考える

amazon

小原先生が編集に携わり、「良心から科学を考える」が出版されています。
この本では、廣安が「第10章:AIに関する問題」の執筆を担当しました。

AIについて議論する際、難しいのはそれが人工物の問題、AI固有の問題、あるいは科学技術の問題であるかという点です。
正直なところ、AI固有の問題というよりも、人工物や科学技術が持つ問題がAIの登場によって焦点化されるという認識で、科学技術の持つ問題を扱う他の章も存在する中、執筆の過程では苦労しました。

その結果、完全にまとまりきらない文章になってしまいましたが、強調したかったポイントは以下のようになります。
1)AIの第3次ブームの技術的中心はDeep Learning (DL)である。
2)思考には速い思考「システム1(情動的共感)」と遅い思考「システム2(認知的共感)」があり、良心に基づく行動にもこれら二つのモードに対応した良心(システム1)と良心(システム2)が存在する。
3)AIの成果には、生成された結果がある。
4)学習を論じる際に重要なのは、「使用するデータ」と「学習アルゴリズム」の二つである。
5)AIは人間や社会と独立して存在するものではなく、共生するものである。単体のAIでは問題のない技術・システムであっても、人間と社会が連携し複雑なシステムとなったときに、問題が生じることがある。
6)「人間の知能を圧倒的に拡張する技術」が成果を上げており、この技術は、「知能拡張技術」(Intelligence Amplifier, IA)と呼ばれる。
7)現在のブーム中に、「強いAI」に至ることは難しい。
8)私たちはAIに生命性を感じている。

また、背後にある感情として次のような点が挙げられます。

1)DLは教師あり学習であり、教師データの作成が技術的な障壁となり、これがブームの終焉を引き起こす可能性がある。
2)AIについてじっくりと考え、適切に対処する必要がある。そのためには、良心(システム2)が必要である。決してAIやICTを「よくわからない」とか「あまりよく知らない」と言ってはいけない。よく理解し、自ら対処することが、良心的な行動である。
3)DLに囚われすぎて、生成モデルにまで考えが至っていなかったことに気付く。今読み直すと、AIの成果として生成モデルの話をしている。驚き。
4)特に日本では、「使用するデータ」の重要性に無頓着であることが問題である。アルゴリズムだけでは不十分でデータが必要であり、これらの二つの要素は学習における両輪である。
5)これはAI固有の問題というよりも高度な技術を含んだ人工物の問題であるが、AI単体での議論は意味がない。いずれ人間と社会の中に取り込まれ、複雑系として存在することになる。そのため、AI単体の使用を禁止する議論は無意味である。
6)AIによって私たちの知能が拡張されており、拡張されるように利用することが好ましい。
7)「強いAI」の実現には外挿探索が重要であり、このアルゴリズムを作るのは難しいと考えていた。
8)AIができることが増えるにつれ、人間はAIに生命性を感じるようになっている。
チューリングテストが一つの人工知能かどうかを判断するテストなわけだが、このテストが本質的に表しているのは、
テスト対象の判定ではなくて、受け取りの判定をしているというところだ。
生命性を感じたら対象は生命なのである。
人工知能に生命を感じる場合もあるし、生命を持つヒトに生命を感じない場合もある。
そのときに問題が生じるのである。

この本が出版されたのは2021年の初めであり、それからわずか2年で世界は大きく変わりました。
GPTの進化が進み、その結果、ChatGPTというサービスが広く世間に認知されるようになりました。
現在、私たちは良心を持ってAIと向き合う必要があるという本が求められています。

1)第3次AIブームの技術的中心はDLであったが、現在は大規模言語モデル(LLM)が教師なし学習をベースに、精錬を教師あり学習で行うモデルが注目されている。その意味では、第3次AIブームは終焉を感じさせなかったものの、第3.5次あるいは第4次のAIブームへと移行していると言えるでしょう。
2)今日では、ますます良心(システム2)が重要だと感じられる。
AI技術の急速な発展に伴い、倫理的、社会的な問題に対処するために深い思考が必要となっている。
3)GANはDLの一種であり、今から考えると、LLMの基本となっているGenerative modelに繋がるものであったと言える。
4)現在はアルゴリズムよりもデータの議論が重要である。
日本でもChatGPTのようなサービスを実現するには、データの理解が十分でないと感じられる。
5)LLMを使用しない選択肢は現実的ではない。高度な人工物の利用を排除することは不可能である。
6)「知能拡張技術」(Intelligence Amplifier, IA)の視点は今後も重要であることが予想される。AI技術が人間の知能を補完し、拡張する役割がますます重要になるでしょう。
7)対話型の意味で言うと、強いAIが登場しているように感じられる。どんな話題にも十分に対応できるからである。これは予想よりも早く実現しました。弱いAIの向上には内挿探索が効果的ですが、強いAIを作るには外挿探索が必要で、そのアルゴリズムを作る手がかりがないため、強いAIの登場はまだ先だと考えられていました。しかし、Generative Modelが膨大なデータを処理した結果、我々は強いAIが出現した(あるいは出現したと錯覚した)と感じるレベルまで達しました。これは、強いAIを作るには外挿探索が必要ではなかったのかもしれませんし、我々が外挿探索を行っていると思っていたのですが、実際には内挿探索がほとんどだったのかもしれません。正直、人間らしさとは外挿探索だと思っていたので、この気づきには驚愕しています。
8)LLMの出現とその成果により、人々はますますAIに生命性を感じている。特に、LLMが人間の言語を理解し、対話ができるようになったことで、人々はAIに対してより親近感を抱くようになっています。

これが、2023年5月の段階での現状かなあ。
(この文章はchat GPT4.0の手助けを借りています)