banner
ニュース センター
当社の製品とサービスのポートフォリオには、お客様にとって優れた幅広いオプションが含まれています。

なぜAIが世界を救うのか

Aug 08, 2023

人工知能の時代が到来し、人々は大騒ぎしています。

幸いなことに、私は良いニュースを伝えるためにここに来ました。AI は世界を破壊するものではなく、むしろ世界を救うかもしれません。

まず、AI とは何かについて簡単に説明します。数学とソフトウェア コードを応用して、人間が行うのと同じ方法で知識を理解し、合成し、生成する方法をコンピューターに教えることです。 AI は他のプログラムと同様、実行し、入力を受け取り、処理し、出力を生成するコンピューター プログラムです。 AI の成果は、コーディングから医学、法律、創造芸術に至るまで、幅広い分野で役立ちます。 他のテクノロジーと同様に、それは人々によって所有され、人々によって制御されます。

AI ではないものの短い説明: 映画で見るような、生命を吹き込み、人類を殺害するか、さもなければすべてを破壊することを決定するキラー ソフトウェアとロボット。

AI とは何かをさらに短く説明すると、私たちが関心を持っているすべてのものをより良くする方法です。

何十年、何千もの研究を通じた社会科学の最も検証された中心的な結論は、人間の知性が非常に広範囲の人生の結果をより良くするということです。 賢い人は、学業成績、仕事のパフォーマンス、職業的地位、収入、創造性、身体的健康、長寿、新しいスキルの習得、複雑なタスクの管理、リーダーシップ、起業家としての成功、紛争解決、読解力、財務など、ほぼすべての活動領域でより良い結果をもたらします。意思決定、他人の視点の理解、創造的な芸術、子育ての成果、そして人生の満足度。

さらに、人間の知性は、科学、技術、数学、物理学、化学、医学、エネルギー、建設、交通、コミュニケーション、芸術、音楽、文化、哲学、倫理、道徳。 これらすべての領域にインテリジェンスを適用しなければ、私たちは今も泥小屋に住み、わずかな自給自足農業をかろうじて暮らしていたことでしょう。 その代わりに、私たちは自らの知性を利用して、過去 4,000 年間にわたって生活水準を 10,000 倍程度引き上げてきました。

AI が私たちに提供してくれるのは、人間の知性を大幅に強化して、新薬の開発から気候変動を解決する方法、星に到達するためのテクノロジーに至るまで、知性のこれらすべての成果をさらに改善する機会です。 。

人間の知能の AI 拡張はすでに始まっています。AI はすでにさまざまな種類のコンピューター制御システムの形で私たちの周りにあり、現在 ChatGPT のような AI 大規模言語モデルで急速にエスカレートしており、放っておけばここから急速に加速するでしょう。

AI の新時代では:

ここでの賭けは大きい。 チャンスは奥深いです。 AI はおそらく、私たちの文明がこれまでに生み出したものの中で最も重要かつ最良のものであり、確かに電気やマイクロチップと同等、そしておそらくそれらを超えています。

AI の開発と普及は、私たちが恐れるべきリスクではなく、私たち自身、子供たち、そして私たちの将来に対して負う道徳的義務です。

AI のおかげで私たちはもっと良い世界に住むことができるはずですが、今ではそれが可能です。

この前向きな見方とは対照的に、AI に関する公の会話は現在、ヒステリックな恐怖と被害妄想に満ちています。

AI が私たち全員をさまざまな形で殺し、社会を破壊し、私たちのすべての仕事を奪い、壊滅的な不平等を引き起こし、悪い人々がひどいことをできるようにするという主張を耳にします。

ユートピアに近いものから恐ろしいディストピアまでの潜在的な結末のこの相違は何を説明するのでしょうか?

歴史的に見て、電灯から自動車、ラジオ、インターネットに至るまで、あらゆる重要な新技術は道徳的パニック、つまり新技術が世界や社会、あるいはその両方を破壊するものだと人々に思い込ませる社会的伝染を引き起こしてきました。 ペシミスト・アーカイブの優秀な人々は、こうしたテクノロジー主導の道徳的パニックを数十年にわたって記録してきました。 彼らの歴史はそのパターンを鮮明に明らかにしています。 この現在のパニックは、AI にとって初めてのことでさえないことが判明しました。

さて、多くの新しいテクノロジーが悪い結果をもたらしているのは確かです。多くの場合、それがなければ私たちの福祉に多大な利益をもたらしてきたのと同じテクノロジーです。 したがって、道徳的パニックが存在するというだけで、何も心配する必要がないというわけではありません。

しかし、道徳的パニックは本質的に非合理的なものであり、正当な懸念であるかもしれないものをヒステリーのレベルにまで膨張させ、皮肉にも実際に深刻な懸念に立ち向かうのを困難にします。

そして、すごいことに、私たちは今、AI に関して本格的な道徳パニックを起こしているのでしょうか。

この道徳的パニックはすでに、さまざまな主体によって、新しい AI の制限、規制、法律などの政策措置を要求する動機として利用されています。 AI の危険性について非常に劇的な公の場で発言し、モラル パニックを餌にしてさらに煽り立てているこれらの関係者は、全員が自らを公益の無私の擁護者であると主張しています。

しかし、そうですか?

そして、それらは正しいのでしょうか、それとも間違っているのでしょうか?

経済学者らは、この種の改革運動には長年のパターンがあると観察してきた。 このような運動の参加者は、1920 年代の米国におけるアルコール禁止の歴史的な例に基づいて、「バプテスト」と「密造業者」の 2 つのカテゴリーに分類されます。

皮肉屋は、明らかにバプテスト派の一部も密造者である、具体的には、大学、シンクタンク、活動家グループ、報道機関から AI を攻撃するためにお金をもらっている者たちであると示唆するでしょう。 AI パニックを促進するために給与を支払われたり、補助金を受け取ったりしている場合は、おそらくブートレガーです。

海賊版の問題は彼らが勝つことだ。 バプテスト派は素朴なイデオローグであり、密造派は冷笑的な経営者であるため、このような改革運動の結果として、規制による捕捉、競争からの遮断、カルテルの形成など、密造派が望むものを手に入れることが多く、バプテスト派は疑問に思うことになる。彼らの社会改善への意欲が大きく間違っていたのです。

私たちは、2008 年の世界金融危機後の銀行改革という驚くべき例を経験したばかりです。 バプテスト派は、このような危機が二度と起こらないようにするために、「大きすぎてつぶせない」銀行を解体するための新しい法律と規制が必要だと私たちに語った。 そこで議会は2010年ドッド・フランク法を可決したが、これはバプテスト派の目標を満たすものとして宣伝されたが、実際には密造業者、つまり大手銀行によって横取りされたものだった。 その結果、2008 年には「大きすぎてつぶせない」銀行であったのと同じ銀行が、現在でははるかに大きくなりました。

したがって実際には、たとえバプテスト派が本物であっても、そしてバプテスト派が正しいとしても、彼らは自分たちの利益のために、操作的で性的な密造業者によって隠れ蓑として利用されているのです。

そしてこれが今、AI規制の推進の中で起こっていることなのです。

ただし、単に犯人を特定し、その動機を非難するだけでは十分ではありません。 私たちは、バプテスト派と密造派の両方の利点に基づいた議論を考慮する必要があります。

AI の最初の破滅的なリスクは、AI が文字通り人類を殺すことを決定することです。

私たちが生み出したテクノロジーが台頭し、私たちを破壊するのではないかという恐怖は、私たちの文化に深く組み込まれています。 ギリシャ人はこの恐怖をプロメテウス神話で表現しました。プロメテウスは、火の破壊的な力、より一般的にはテクノロジー(「テクネー」)を人間にもたらし、そのためにプロメテウスは神々から永遠の拷問に処せられました。 その後、メアリー・シェリーは、小説「フランケンシュタイン」、または「現代のプロメテウス」の中で、この神話の私たち独自のバージョンを現代人に与えました。その中で、私たちは永遠の命のためのテクノロジーを開発しますが、その後、そのテクノロジーが立ち上がり、私たちを滅ぼそうとします。 そしてもちろん、AI パニック新聞の記事は、ジェームズ キャメロン監督の映画『ターミネーター』に登場する、輝く赤い目の殺人ロボットの静止画像なしには語れません。

この神話の進化上の目的と考えられるのは、新しいテクノロジーの潜在的なリスクを真剣に考慮するよう促すことです。結局のところ、火は実際に都市全体を焼き払うために使用される可能性があります。 しかし、火が寒くて敵対的な世界で私たちを暖かく安全に保つために使用された現代文明の基礎でもあったのと同じように、この神話はほとんどの、すべてのもののはるかに大きな利点を無視していますか? – 新しいテクノロジー、そして実際には、論理的な分析ではなく破壊的な感情を煽ります。 前近代的な人間がこのように混乱したからといって、私たちがそうしなければならないという意味ではありません。 代わりに合理性を適用することができます。

私の見解は、AI が文字通り人類を殺すことを決定するという考えは、重大なカテゴリーの誤りであるということです。 AI は、動物や私たちのように、適者生存のための戦いに参加するために数十億年の進化によって準備された生き物ではありません。 それは、人々によって作られ、人々によって所有され、人々によって使用され、人々によって制御される、数学、コード、コンピューターです。 ある時点でそれ自身の心を発達させ、私たちを殺そうとする動機があると判断するという考えは、迷信的な手振りです。

つまり、AIはあなたを殺したくないし、目標も持たず、生きていないので殺したくもないのです。 そして、AI は機械です。トースターが活性化するのと同じように、AI も生き返るわけではありません。

さて、明らかにキラー AI の真の信者であるバプテスト派が存在し、彼らはその恐ろしい警告について突然成層圏になるほどの量のメディア報道を受けるようになり、その中には何十年もこのテーマを研究してきたと主張し、今では恐怖から恐怖を感じていると言う人もいます。彼らが学んだことに基づいて考えます。 これらの真の信者の中には、実際にテクノロジーを革新した人もいます。 これらの関係者は、AI開発の禁止からデータセンターへの軍事空爆や核戦争に至るまで、AIに対するさまざまな奇妙で極端な制限を主張している。 彼らは、私のような人間はAIによる将来の壊滅的な結果を排除できないため、潜在的な生存のリスクを防ぐためには、大量の身体的暴力と死を必要とする可能性のある予防的な姿勢をとるべきだと主張しています。

私の答えは、彼らの立場は非科学的である、つまり検証可能な仮説とは何でしょうか? 仮説を偽るものは何でしょうか? 危険地帯に入りつつあることをどうやって知ることができるのでしょうか? これらの疑問は、「そんなことが起こらないと証明することはできない!」という点を除けば、ほとんど答えられていません。 実際、バプテスト派の立場は非常に非科学的かつ極端で、数学と暗号に関する陰謀論であり、すでに身体的暴力を求めているため、私は普段はやらないことをし、彼らの動機にも疑問を呈するつもりです。

具体的には、次の 3 つのことが起こっていると思います。

まず、第二次世界大戦を終結させ、第三次世界大戦を阻止するのに貢献した核兵器を開発した自身の役割についてのロバート・オッペンハイマーの有名な手絞りに対して、ジョン・フォン・ノイマンが「罪の自分を主張するために罪を告白する人もいる」と答えたことを思い出してほしい。 あからさまに自慢しているように聞こえずに、自分の仕事の重要性を主張できる最もドラマチックな方法は何でしょうか? これは、実際に AI を構築し資金提供しているバプテスト派の言葉と行動の不一致を説明しています。言葉ではなく行動に注目してください。 (トルーマンはオッペンハイマーとの会談後、「あの泣き虫を二度とここに入れるな」とさらに厳しくなった。)

第二に、バプテスト派の中には実際に密造業者もいます。 「AI安全専門家」、「AI倫理学者」、「AIリスク研究者」という職業全体が存在します。 彼らは運命を変えるために報酬をもらっているので、彼らの発言は適切に処理されるべきである。

第三に、カリフォルニアは、EST から人民寺院、ヘブンズ ゲートからマンソン ファミリーに至る数千のカルトで当然のことながら有名です。 すべてではありませんが、これらのカルトの多くは無害であり、もしかしたら、そこに居場所を見つけた疎外された人々にとっては目的を果たすことさえあるかもしれません。 しかし、実際には非常に危険なものもあり、カルトは最終的に暴力と死につながる一線をまたぐのが難しいことで知られています。

そして現実は、ベイエリアの誰にとっても明らかだが、おそらくベイエリアの外では明らかではないが、「AI リスク」がカルトに発展し、それが突如として世界的な報道の注目と世間の話題の白日の中に浮上したということである。 このカルトは、非主流の人物だけでなく、一部の実際の業界専門家や、最近までサム・バンクマン・フリードを含む少数の裕福な寄付者も引き込んでいる。 そして、それはカルト的な行動と信念の完全な総体を展開しました。

このカルトが、非常に極端に聞こえる AI リスク破滅者たちが存在する理由です。彼らが実際にその過激主義を論理的にする秘密の知識を持っているわけではなく、彼らは自分自身を狂乱に追い込んでいて、実際には…非常に極端なのです。

この種のカルトは新しいものではないことが判明しました。終末カルトを生み出す千年主義という西洋の長年の伝統が存在します。 AI リスクカルトは、千年紀黙示録カルトの特徴をすべて備えています。 ウィキペディアより、私による追加:

「千年主義とは、来るべき社会の根本的な変革[AIの到来]、その後にすべてのものが変化する[AIのユートピア、ディストピア、および/または世界の終わり]という集団または運動[AIリスク・ドゥーマーズ]による信念である」劇的な出来事 [AI の禁止、データセンターへの空爆、規制されていない AI への核攻撃] のみが世界を変えることができると見なされ [AI を阻止] しており、その変化は敬虔な人々のグループによってもたらされるか、生き残ることが予想されています。ほとんどの千年紀のシナリオでは、来るべき災害や戦い [AI 黙示録、またはその防止] の後に、信者が報われる [または少なくとも正しかったと認められる] 新たな浄化された世界 [AI 禁止] が続きます。ずっと]。"

この黙示録カルトのパターンはあまりにも明白なので、これに気づいていない人が増えていることに私は驚いています。

誤解しないでください。カルトの話は聞くのが楽しく、書かれた内容は創造的で魅力的なものが多く、メンバーはディナー パーティーやテレビで熱心に活動しています。 しかし、彼らの極端な信念が法律と社会の将来を決定するべきではありません。明らかにそうではありません。

広く議論されている 2 番目の AI リスクは、AI が、文字通り人類に深刻な損害を与えるほど「有害」な出力を生成することによって、私たちの社会を破滅させるというものです。殺された。

短いバージョン: 殺人ロボットが私たちを捕まえなくても、ヘイトスピーチと誤った情報が私たちを捕まえるでしょう。

これは、上で説明した「AI リスク」運動から分岐し、多少引き継いだ比較的最近の悲惨な懸念です。 実際、AI リスクの用語は最近、「AI の安全性」(AI が文字通り私たちを殺すのではないかと心配する人々が使用する用語)から、「AI の調整」(社会的な「害」を心配する人々が使用する用語)に変わりました。 。 元々の AI 安全性の人々は、この変化に不満を抱いていますが、それを箱に戻す方法はわかりません。彼らは現在、実際の AI リスクのトピックを「AI notkilleveryoneism」という名前に変更することを主張していますが、これはまだ広く採用されていませんが、少なくとも明らかです。

AI の社会的リスクに関する主張の性質を示すヒントは、「AI の調整」という独自の用語です。 何との調整ですか? 人間の価値観。 人間の価値観は誰のものですか? ああ、そこが難しいところです。

偶然にも、私は同様の状況、つまりソーシャルメディアの「信頼と安全」戦争の最前列に座ったことがあります。 今では明らかなように、ソーシャル メディア サービスは長年にわたり、政府や活動家から幅広いコンテンツの禁止、制限、検閲、その他の抑圧を求める大きな圧力を受けてきました。 そして、「ヘイトスピーチ」(およびその数学的対応物である「アルゴリズムバイアス」)と「誤った情報」の同じ懸念が、ソーシャルメディアの文脈から「AI連携」という新たな領域に直接移されつつある。

ソーシャルメディア戦争から得た大きな教訓は次のとおりです。

一方で、絶対主義的な言論の自由の立場は存在しない。 まず、米国を含むすべての国は、少なくとも一部のコンテンツを違法にしています。 第二に、児童ポルノや現実世界の暴力の扇動などの特定の種類のコンテンツは、合法かどうかにかかわらず、ほぼすべての社会で立ち入り禁止に同意されているものがあります。 したがって、コンテンツ (音声) を促進または生成する技術プラットフォームには、いくつかの制限が存在します。

一方で、滑りやすい坂道は誤謬ではなく、必然です。 ヘイトスピーチや特定の人を傷つける言葉、あるいは「教皇は死んだ」といった明らかに虚偽の主張などの、ひどい内容であっても制限する枠組みが一度整備されると、驚くほど広範な政府機関や活動家からの圧力がかかることになる。グループや非政府組織は本格化し、社会や個人の好みを脅かすとみなされるあらゆる言論に対して、これまで以上のレベルの検閲と弾圧を要求するだろう。 彼らはこれを、明らかに重犯罪に当たる方法まで行うでしょう。 このサイクルは実際には、私たちのエリート権力構造全体に設置された権威主義的なホールモニターの熱狂的な支援により、一見永遠に続く可能性があります。 これはソーシャル メディアで 10 年にわたって連鎖的に発生しており、一部の例外を除いて、常に熱狂し続けています。

これが現在「AI 連携」を中心に形成されている力関係です。 その支持者は、AIが生成した社会にとって有益な言論や思想を設計し、AIが生成した社会に悪影響を与える言論や思想を禁止する知恵があると主張している。 反対派は、思想警察は息をのむほど傲慢で傲慢であり、少なくとも米国においてはしばしば完全な犯罪者であり、実際、政府、企業、学術が融合した新しい種類の権威主義的言論独裁政治を、雑誌のページから直接引き裂こうとしていると主張している。ジョージ・オーウェルの1984年。

「信頼と安全」と「AIの連携」の両方の支持者は、アメリカ沿岸部のエリート層を特徴づける世界人口の非常に狭い層に集中しているため、テクノロジー業界で働き、テクノロジー業界について執筆している人々の多くがその中に含まれている。私の読者の中には、社会の破壊を避けるためには AI の出力に対する劇的な制限が必要であると主張したくなる人もいるだろう。 私は今、この件についてあなたたちに説き伏せようとするつもりはありません。ただ、これが需要の本質であり、世界のほとんどの人はあなたのイデオロギーに同意していないし、あなたが勝利するのを見たいとも思っていない、ということだけを述べておきます。

ますます激化する音声コードを通じてソーシャルメディアとAIの両方に押し付けられている一般的なニッチな道徳に同意できない場合は、AIが何を発言/生成できるかをめぐる戦いがさらに重要になることも認識する必要があります。ソーシャルメディアの検閲を巡る争いよりもはるかに大きい。 AI は、世界のあらゆるものの制御層となる可能性が非常に高いです。 どのように運用を許可するかが、おそらくこれまでの何よりも重要になるでしょう。 あなたは、小規模で孤立した党派的なソーシャル エンジニアの仲間たちが、あなたたちを守っているという長年の主張を隠れ蓑にして、どのように今そのことを判断しようとしているのかを知っておくべきです。

要するに、思想警察にAIを弾圧させてはいけないということだ。

機械化、自動化、コンピュータ化、または AI によるさまざまな失業の恐怖は、機械織機などの機械が最初に登場して以来、何百年もの間、繰り返されてきたパニックです。 歴史を通じて、新たな主要テクノロジーがより高い賃金でより多くの仕事を生み出してきたにもかかわらず、このパニックの波のたびに、「今回は違う」という主張が伴います。これがついに起こるときであり、これが最終的に起こるテクノロジーです。人間の労働力に鉄槌を下す。 それでも、それは決して起こりません。

私たちは最近、2000 年代のアウトソーシング パニックと 2010 年代の自動化パニックという、テクノロジー主導の失業パニック サイクルを 2 回経験しました。 多くの著名人、評論家、さらにはハイテク業界の幹部さえも、この20年間を通じて大量失業が近いとテーブルを激しく騒がせていたにもかかわらず、2019年後半、つまり新型コロナウイルス感染症が始まる直前までには、世界には史上かつてないほど高賃金でより多くの仕事が存在していた。

それでも、この誤った考えは消えることはありません。

そして案の定、戻ってきました。

今回、私たちはついに、すべての仕事を奪って人間の労働者を不要にするテクノロジー、つまり本物の AI を手に入れました。 確かに、今度は歴史が繰り返されることはなく、AI は急速な経済成長、雇用、賃金の増加ではなく、大量の失業を引き起こすでしょう?

いいえ、そんなことは起こりません。実際、AI の開発と経済全体への普及が許されれば、史上最も劇的な持続的な経済ブームを引き起こし、それに対応して記録的な雇用と賃金の伸びをもたらす可能性があります。これは懸念とは正反対です。 。 その理由は次のとおりです。

自動化で仕事を奪う破滅者たちが犯し続ける核心的な間違いは、「労働の塊の誤謬」と呼ばれます。 この誤謬は、経済においては常に一定量の労働を行う必要があり、それを機械が行うか人間が行うかのどちらかであり、機械がそれを行うと人間が行うべき仕事はなくなるという誤った概念です。 。

労働の塊の誤謬は素朴な直感から自然に生まれますが、ここでの素朴な直感は間違っています。 テクノロジーを生産に適用すると、生産性が向上します。つまり、投入量の削減によって生産量が増加します。 その結果、商品やサービスの価格が下がります。 商品やサービスの価格が下がるにつれて、私たちがそれらに支払うお金が減り、他のものを買うための余分な購買力が得られることになります。 これにより経済の需要が増加し、新製品や新産業を含む新たな生産の創出が促進され、これまでの仕事が機械に取って代わられた人々に新たな雇用が創出されます。 その結果、物質的な繁栄が高まり、より多くの産業、より多くの製品、そしてより多くの雇用を伴う経済が拡大します。

しかし、良いニュースはそれだけではありません。 給料も高くなります。 これは、個々の労働者のレベルで、市場が労働者の限界生産性に応じて報酬を設定するためです。 テクノロジーを導入したビジネスの従業員は、従来のビジネスの従業員よりも生産性が高くなります。 雇用主は、その労働者の生産性が向上したため、より多くのお金を支払うか、純粋に自己利益のために別の雇用主が支払うかのどちらかです。 その結果、業界にテクノロジーが導入されると、一般的に業界の雇用数が増加するだけでなく、賃金も上昇します。

要約すると、テクノロジーは人々の生産性を向上させます。 これにより、既存の商品やサービスの価格が下落し、賃金が上昇します。 これにより、経済成長と雇用の増加が引き起こされるとともに、新たな雇用や新たな産業の創出が促進されます。 市場経済が正常に機能し、テクノロジーが自由に導入されると、これは終わりのない永遠の上昇サイクルになります。 なぜなら、ミルトン・フリードマンが述べたように、「人間の欲求とニーズは無限である」ため、私たちは常に自分が持っている以上のものを望んでいます。 テクノロジーを注入した市場経済は、誰もが望むと考えられるあらゆるものを提供することに近づく方法ですが、そこまで到達することはできません。 だからこそ、テクノロジーが雇用を破壊しないし、今後も破壊することはないのです。

これらは、これまで触れたことのない人にとっては非常に驚くべきアイデアなので、理解するのに時間がかかるかもしれません。 しかし、私がこれらをでっち上げているわけではないと誓います。実際、それらについては標準的な経済学の教科書ですべて読むことができます。 私のお勧めは、ヘンリー・ハズリットの『1 回のレッスンで経済学』の「機械の呪い」の章と、フレデリック・バスティアの風刺的な、照明業界との不公平な競争のために太陽を消してほしいというキャンドルメーカーの嘆願書で、ここでは現代に合わせて現代風にアレンジされています。

しかし、今回は違います、あなたは考えています。 今回、AI により、人間の労働をすべて置き換えることができるテクノロジーが得られました。

しかし、上で説明した原則を使用して、文字通りすべての既存の人間の労働が機械に置き換えられることが何を意味するかを考えてください。

それは、歴史的な前例をはるかに超えた、絶対的に成層圏に達する経済生産性の伸び率を意味するでしょう。 既存の商品やサービスの価格は全面的に実質的にゼロになる。 消費者福祉は飛躍的に向上するでしょう。 消費者の購買力は急上昇するだろう。 経済における新たな需要が爆発的に増加するでしょう。 起業家は、目もくらむほどの新しい産業、製品、サービスを創出し、新しい需要をすべて満たすためにできるだけ多くの人材と AI をできるだけ早く雇用するでしょう。

AI がその労働力を再び置き換えるとしたらどうでしょうか? このサイクルが繰り返され、消費者福祉、経済成長、雇用と賃金の伸びがさらに高まるだろう。 それは、アダム・スミスもカール・マルクスも夢にも思わなかった物質的なユートピアに至るまでの一直線の螺旋となるだろう。

私たちはとても幸運なはずです。

カール・マルクスといえば、AI が仕事を奪うという懸念は、次に主張される AI リスクに直接つながります。つまり、マルク、悪い意味でも良い意味でも、AI がすべての仕事を奪うと仮定してください。 その結果、AIの所有者が経済的利益をすべて享受し、一般人は何も得られず、大規模で壊滅的な富の不平等が生じるのではないだろうか?

偶然にも、これはマルクス主義の中心的な主張であり、生産手段の所有者であるブルジョアジーは必然的に実際の労働を行う人々であるプロレタリアートからすべての社会的富を盗むだろうというものでした。 これもまた、現実によってどれだけ反証されても消えることのない誤謬です。 しかし、とにかく心臓に杭を打ち込んでみましょう。

この理論の欠陥は、テクノロジーの所有者として、それを自分だけのものにしておくことが自分の利益にならないということです。実際にはその逆で、それをできるだけ多くの顧客に販売することが自分の利益になるのです。 どのような製品であっても、世界最大の市場は全世界、つまり私たち 80 億人全員です。 そして現実には、すべての新しいテクノロジーは、高給取りの大企業や裕福な消費者の希薄な雰囲気に売り込むことから始まったものであっても、可能な限り最大の大衆市場、最終的には地球上のすべての人々の手に渡るまで急速に普及します。

この典型的な例は、2006 年にイーロン・マスクがテスラ向けに発表した、いわゆる「秘密の計画」です。

ステップ 1、[高価な] スポーツカーを作る

ステップ 2、そのお金を使って手頃な価格の車を作る

ステップ 3、そのお金を使ってさらに手頃な価格の車を製造する

…もちろん、それはまさに彼が行ったことであり、その結果、世界で最も裕福な男になったのです。

最後の点が重要です。 もし今、金持ちだけに車を売っていたら、イーロンはもっと金持ちになっただろうか? いいえ、もし自分のためだけに車を作っていたら、彼はさらに裕福になったでしょうか? もちろん違います。 いいえ、彼は可能な限り最大の市場である世界に販売することで自分の利益を最大化します。

つまり、自動車だけでなく、電気、ラジオ、コンピュータ、インターネット、携帯電話、検索エンジンなどで過去に見られたように、誰もがそのようなものを手に入れることができるのです。 このようなテクノロジーのメーカーは、地球上の誰もが買えるようになるまで、価格を引き下げることに強い意欲を持っています。 これはまさに AI ですでに起こっていることです。これが、Microsoft Bing や Google Bard の形で、最先端の生成 AI を低コストだけでなく、現在でも無料で使用できる理由です。そしてそれは今後も起こり続けることです。 そのようなベンダーが愚かだからや寛大だからではなく、まさに彼らが貪欲であるため、彼らは市場の規模を最大化し、それによって利益を最大化したいと考えています。

つまり、テクノロジーが富の集中化を推進するのとは逆のことが起こります。テクノロジーの個々の顧客、最終的には地球上のすべての人が代わりに権限を与えられ、生成された価値のほとんどを獲得します。 従来のテクノロジーと同様に、AI を構築する企業は、自由市場で機能する必要があると仮定して、これを実現するために激しく競争することになります。

マルクスは当時も間違っていましたし、今も間違っています。

これは、私たちの社会において不平等が問題ではないということではありません。 それは単にテクノロジーによって動かされているのではなく、逆に、新しいテクノロジーに対して最も抵抗力があり、AIのような新しいテクノロジーの採用を阻止するために政府の介入が最も多い経済セクターによって動かされているのです。住居、教育、医療。 AI と不平等の実際のリスクは、AI がさらなる不平等を引き起こすということではなく、不平等を減らすために AI が使用されることを私たちが許可しないことです。

これまで私は、AI の最も頻繁に提案される 5 つのリスクのうち 4 つが実際には現実ではない理由を説明してきました。AI は生命を吹き込んで私たちを殺すことはありません、AI は私たちの社会を破滅させません、AI は大量の失業を引き起こしません、そして AI は原因を引き起こしません破滅的な不平等の拡大。 しかし、ここで 5 番目の、私が実際に同意するものに取り組んでみましょう。AI によって、悪い人たちが悪いことをすることが容易になります。

ある意味、これはトートロジーです。 テクノロジーはツールです。 火や石をはじめとする道具は、食べ物を作ったり、家を建てたりするなど、良いことをするためにも使用できますし、悪いことには、人を火傷させたり、人を殴ったりすることもできます。 どのようなテクノロジーも良くも悪くも利用されます。 けっこうだ。 そして、AI により、犯罪者、テロリスト、敵対政府が悪事が容易になることは疑いありません。

このため、一部の人々は、「それなら、リスクを冒すのはやめましょう。そうなる前に、今すぐ AI を禁止しましょう」と提案します。 残念ながら、AI はプルトニウムのような入手が困難な難解な物理物質ではありません。 それは逆で、数学とコードは世界で最も簡単に手に入る素材です。

AI 猫は明らかにすでに袋から出ています。 何千もの無料のオンライン コース、書籍、論文、ビデオから AI の構築方法を学ぶことができ、優れたオープンソース実装が日々急増しています。 AI は空気のようなもので、どこにでも存在するでしょう。 すべてのコンピューターを監視し制御する世界政府を逮捕するには、どれほどの全体主義的抑圧が必要なのでしょうか? ジャックブーツを履いた黒いヘリコプターに乗った凶悪犯が不正な GPU を奪取? – 私たちには守るべき社会が残されていないということです。

その代わりに、悪い人が AI を使って悪いことをするリスクに対処する非常に簡単な方法が 2 つあり、これらはまさに私たちが焦点を当てるべきものです。

まず、AI を使って行われるほとんどの悪いことを犯罪とする法律が定められています。 ペンタゴンにハッキング? それは犯罪です。 銀行からお金を盗む? それは犯罪です。 生物兵器を作る? それは犯罪です。 テロ行為を犯しますか? それは犯罪です。 私たちは、できるときはそれらの犯罪を防止し、できないときは起訴することに集中すればよいのです。 新しい法律さえ必要ありません。すでに違法ではない、実際に提案されている AI の悪用法を私は 1 つも知りません。 また、新たな悪質な使用が判明した場合は、その使用を禁止します。 QED。

しかし、あなたは私がそこに滑り込んだことに気づくでしょう – 私たちはまず AI を利用した犯罪を未然に防ぐことに注力すべきだと言いました – そのような予防は AI を禁止することを意味するのではありませんか? そうですね、そのような行為を防ぐ別の方法があります。それは、AI を防御ツールとして使用することです。 AI は、悪い目標を持った悪人の手に渡れば危険になるのと同じ機能ですが、良い目標を持った善人の手に渡れば、AI は強力になります。特に、悪いことが起こらないようにするのが仕事である善人の手です。

たとえば、AI が偽の人物や偽のビデオを生成することを心配している場合、その答えは、人々が暗号署名を介して自分自身と本物のコンテンツを検証できる新しいシステムを構築することです。 本物と偽物の両方のコンテンツのデジタル作成と変更は、AI 以前からすでに行われていました。 答えはワードプロセッサやPhotoshop、あるいはAIを禁止することではなく、テクノロジーを利用して実際に問題を解決するシステムを構築することだ。

そこで、第 2 に、AI を正当かつ防御的な目的で使用するための大きな取り組みを始めましょう。 サイバー防衛、生物防衛、テロリスト狩りなど、私たち自身、地域社会、国家の安全を守るために行うあらゆる活動に AI を活用しましょう。

もちろん、政府内外にまさにこれを実行している多くの賢明な人々がすでにいます。しかし、現在 AI を禁止するという無駄な見通しに執着しているすべての努力と知力を、悪人が悪いことをするのを防ぐために AI を使用することに当てれば、 AI が浸透した世界が、私たちが現在住んでいる世界よりもはるかに安全になることは疑いの余地がないと思います。

最後に、おそらく最も恐ろしい AI リスクが 1 つあります。

AIは西側の比較的自由な社会だけで開発されているわけではなく、中華人民共和国共産党によっても開発されています。

中国は AI に対して私たちとは大きく異なるビジョンを持っています。彼らは AI を権威主義的な人口管理のメカニズムとして完全に捉えています。 彼らはこのことについて秘密にしているわけでもなく、それについて非常に明確であり、すでに自分たちの議題を追求している。 そして、彼らはAI戦略を中国に限定するつもりはありません。彼らは、5Gネットワ​​ークに電力を供給しているあらゆる場所、一帯一路の資金を貸し付けているあらゆる場所、サービスを提供するTiktokのようなフレンドリーな消費者向けアプリを提供しているあらゆる場所に、AIを世界中に普及させるつもりです。集中化された指揮および制御 AI のフロントエンドとして機能します。

AI の唯一最大のリスクは、中国が世界的な AI の優位性を勝ち取り、米国と西側諸国がそれを勝ち取らないことです。

私はこれに対して何をすべきかについて、簡単な戦略を提案します。実際、これはロナルド・レーガン大統領がソ連との第一次冷戦に勝利するために用いた戦略と同じです。

「私たちは勝ちますが、彼らは負けます。」

米国と西側の私たちは、キラーAI、「有害な」AI、雇用を破壊するAI、不平等を生み出すAIをめぐる根拠のないパニックによって立ち往生するのを許すのではなく、可能な限りAIに傾倒すべきである。 。

私たちは世界的な AI 技術の優位性をめぐる競争に勝利し、中国に負けないよう努めるべきです。

その過程で、経済的生産性と人間の可能性に対するAIの利益を最大化するために、できる限り迅速かつ強力にAIを経済と社会に導入する必要があります。

これは、実際の AI リスクを相殺すると同時に、私たちの生活様式がはるかに暗い中国のビジョンによって置き換えられないようにするための最良の方法です。

シンプルなプランを提案します。

それが私たちが AI を使って世界を救う方法です。

構築する時が来ました。

最後に 2 つの簡単なステートメントで終わります。

AIの開発は1940年代、コンピューターの発明と同時に始まりました。 ニューラル ネットワーク (今日の AI のアーキテクチャ) に関する最初の科学論文は 1943 年に出版されました。過去 80 年にわたる AI 科学者の全世代が生まれ、学校に通い、働き、そして多くの場合、その姿を見ることなく亡くなってしまいました。私たちが今受け取っている報酬。 彼らは皆、伝説です。

今日、ますます多くのエンジニアが増えており、その多くは若く、祖父母や曾祖父母が AI の背後にあるアイデアの作成に関わっていた可能性もあり、恐怖を煽ったり運命論を唱えたりする壁に対抗しながら、AI の実現に取り組んでいます。彼らを無謀な悪役として描こうとしている。 私は彼らが無謀だとも悪者だとも思わない。 彼らは皆、ヒーローです。 私の事務所と私は、できる限り多くの彼らを支援することに興奮しており、彼らと彼らの仕事に100%寄り添っていきます。

* * *

ここで表明された見解は、引用された AH Capital Management, LLC (「a16z」) の個人の見解であり、a16z またはその関連会社の見解ではありません。 ここに含まれる特定の情報は、a16z が管理するファンドのポートフォリオ会社などの第三者情報源から入手したものです。 信頼できると考えられる情報源から取得したものではありますが、a16z はそのような情報を独自に検証しておらず、情報の現在または今後の正確性、または特定の状況に対する情報の適切性についていかなる表明も行いません。 さらに、このコンテンツにはサードパーティの広告が含まれる場合があります。 a16z はそのような広告を審査しておらず、そこに含まれるいかなる広告コンテンツも推奨しません。

このコンテンツは情報提供のみを目的として提供されており、法律、ビジネス、投資、税金に関するアドバイスとして信頼されるべきではありません。 これらの問題については、自分のアドバイザーに相談する必要があります。 有価証券またはデジタル資産への言及は説明のみを目的としており、投資の推奨や投資顧問サービスの提供の提供を構成するものではありません。 さらに、このコンテンツは投資家または投資家候補者に向けられたものではなく、それらによる使用を目的としたものではなく、a16z が管理するファンドへの投資を決定する際にはいかなる状況においても信頼してはなりません。 (a16z ファンドへの投資募集は、そのようなファンドの私募覚書、サブスクリプション契約、およびその他の関連文書によってのみ行われ、そのすべてを読む必要があります。) 言及、参照、または言及されている投資またはポートフォリオ企業はすべて、記載されているものは、a16z が管理する車両へのすべての投資を代表するものではなく、その投資が利益を生むか、将来行われる他の投資が同様の特性や結果をもたらすかについては保証できません。 Andreessen Horowitz が管理するファンドによって行われた投資のリスト (発行者が a16z に公開の許可を与えていない投資および上場デジタル資産への未発表の投資を除く) は、https://a16z.com/investments で入手できます。 /。

ここで提供されるチャートやグラフは情報提供のみを目的としており、投資決定を行う際に依存すべきではありません。 過去の実績は将来の結果を示すものではありません。 内容は、示された日付時点でのみ述べられています。 これらの資料に記載されている予測、見積もり、予測、目標、見通し、および/または意見は予告なく変更される可能性があり、他の人が表明した意見と異なる、または反対となる場合があります。 その他の重要な情報については、https://a16z.com/disclosures をご覧ください。

目次