[AI] ChatGPT,Novel AI雑録/23.5.12〜ジェネレーティブAIモデルの作る未来
「GPT-5」は登場する?どんな未来が待っている?OpenAI CEOの発言からわかった2つの事実
5/9(火) 19:11
GPTの次のバージョンのリリースを心待ちにしています。GPT-3は歴史に傷跡を残し、GPT-3.5は衝撃をもたらし、GPT-4はAI言語モデルの能力で世界を驚かせました。ここでGPTに熱狂している人の誰もが疑問に思うのは、「GPT-5は登場するのか? だとしたら、それはいつなのか?」
■GPT-5は登場する?
もちろん、「GPT-5」と呼ばれる、OpenAIの第5世代のGPT大規模言語モデルは、ほぼ間違いなく登場します。残念ながら、先行のGPT-3.5やGPT-4と同じく、OpenAIは次のGPTモデルの詳細を明かす時期については、ほとんど口を開いていません。同社はたいてい、リリース日がかなり近づくまで、そのような情報は明かしません。こうした口の固い姿勢が、常に次のGPTモデルのリリース時期について憶測を呼ぶことになります。すでに、さまざまな情報源をGPT-5は学習中であり、リリース時期は2024年初頭と見られると予測しています。しかし、MITのイベントの講演で、OpenAIのCEOであるSam Altman氏は、このような予測を覆したように見えます。
■OpenAI CEOの発言から明らかになった2つの事実
AI(特にGPT-4よりも高性能なAI)開発の空白期間に関する公開質問に対するコメントを求められたとき、Altman氏はGPT-5がすでに開発中であるという質問の一部に異議を唱えたのです。Altmanによると、OpenAIは現在GPT-5は学習中ではなく、しばらくの間そのようなことはない、と。このコメントは2つの事実を明らかにしています。まず、GPT-5は間違いなく存在します。次に、OpenAIはGPT-5の開発を急いではいないということ。以下の動画がAltmanの発言の動画です。
GPT-5はいつリリースされる?
Altman氏のGPT-5開発に関するコメントでは、GPT-5のリリースは2024年になるように思えますが、コメントの細部にもっと注意を払う必要があります。Altman氏は、これまでのOpenAIの新しいGPTモデルの開発の段階を踏まえると、GPT-5はまだ学習中ではないが、GPT-5はモデル学習のための追加のデータセットを収集する、学習データの収集段階である可能性が非常に高いです。もしくは、GPT-5モデルの基本的な構造が、まだ決定していない可能性もあります。いずれにしても、Altman氏の言う通り、GPT-5は現在学習中ではないが、それは実際の学習のための土台づくりが終わっていないからかもしれません。つまり、実際に学習自体は始まっていないけれど、GPT-5モデルの開発は進行中だということ。この2つの事実は同時に存在しえます。忘れてならないのは、OpenAIのChatGPTには、GoogleのBardのような追随するモデルがあるということです。AIモデルの開発ペースを意図的に落とすのは、そのような競合の手を貸すことにもなります。高性能なAIモデルの成長ペースが世界的に懸念されてもいる中で、OpenAIが競合他社に対して現在の地位を維持したいのであれば、GPTモデルの開発ペースを落とす可能性は低いです。
■「GPT-5のリリースは2024年」は本当?
では、次に気になるのは、「GPT-5のリリース日は2024年のいつなのか?それは可能なのか?」以前のモデルの学習や精度を上げるのにかかった時間を考えると、2024年の後半であればまだ可能でしょう。しかし、GPT-4の能力もまだ十分にわかっていないことを考えると、OpenAIは2024年まで現行モデルを少しずつ改良し、翌年(2025年)に GPT-5をリリースするという選択をする可能性もあります。思い出してほしいのは、GPT-4は言語モデルと視覚モデルの両方です。ところが、GPT-4の視覚モデルの能力はほとんど使われていません。GPT-4には、まだ知られていない巨大なポテンシャルがあるということで、OpenAIはこれから数カ月は、GPT-5を強力に推進するのではなく、GPT-4を最大限活用してもらうことに費やすのかもしれません。
■GPT-5によって何が変わる?
確信を持って語るには時期尚早かもしれませんが、GPT-4からの飛躍的な進化は十分に期待できます。GPT-3は、主に言語モデルでした。GPT-4は、言語モデルと視覚モデルの両方を兼ね備えるという進化でした。GPT-5は、GPT-4の能力に加え、音声認識モデルという能力もあるのではないかと期待されています。また、GPT-4が画像を入力できるモデルであるように、動画処理ができるGPTモデルになるという噂もあります。したがって、テキスト、画像、音声、動画を処理できるモデルになる可能性もあるのです。しかし、現在のGPT-4の能力を考えると、限界収穫逓減の法則が働くことも考えられます。モデルの規模を大きくしたり、計算能力が上げたり、学習データを多様化したりするだけでは、必ずしも私たちがGPT-に期待しているような大きな発展はないかもしれません。
■GPT-5によるワクワクする未来が待っている…?
GPT-5に関する詳細の多くは推測に過ぎませんが、人工知能の恐るべきパラダイムシフトに向かう大事な一歩となるのは間違いありません。
「人工的な普通の知能」には到達しないかもしれませんが、もし実現するとしたら、GPT-5はそれに近づく一歩となるでしょう。
ChatGPT超実践活用法: 「ビジネスシーン」におけるマジで使える利用方法10選【使い方・入門・教科書・初心者・利用法】
最終更新: 5/9(火) 19:11
(C) Mediagene Inc.
Yahoo!ニュース
AIで強化される職場の未来、識者が予測する3つのシナリオ
2023/5/7(日) 16:00
人工知能(AI)、とりわけジェネレーティブ(生成)AIは、ビジネスにおける創造性やイノベーションを加速させるだろうか、それとも妨げるのだろうか。確かなことは誰にもわからないが、業界関係者たちは、今後起こりうるシナリオを推測している。AIは人間の創造性を抹殺あるいは著しく阻害するという認識が世間に広まっている一方で、多くの人々は、生活のなかでジェネレーティブAIを積極的に使用している。ビジネスパーソン向け匿名ソーシャルネットワーク「フィッシュボウル」が行った最近の調査によると、こうした社員の43%は、ChatGPTなどのAIツールを、上司の指示や認識もなしに業務関連タスクに使用した経験があると回答した。つまり、ビジネス環境でのAIやジェネレーティブAIの使用に関しては、推進と抑制の両方の力が働いている。一般社員や幹部にとって、とてつもなく有能なアシスタントになる可能性もあれば、その仕事を奪う可能性もある。AIはクリエイティブになれるだろうか。AIは、人間よりも大きなイノベーションを起こせるだろうか。
従来の考えでは、クリエイターやイノベーターとしての能力に関するかぎり、常に人間に分があるはずだった。しかし、デビッド・デクレマー、ニコラ・モリーニ・ビアンジーノ、ベン・フォークは、ハーバード・ビジネス・レビューに掲載された論考で、「ChatGPTやMidjourneyといったジェネレーティブAIの実用化は、こうした特別な地位を脅かしつつあり、フリーランスか社員かを問わず、クリエイティブな仕事に激変をもたらそうとしている」と述べている。
「新たなジェネレーティブAIモデルは、膨大なデータセットとユーザーフィードバックから学習し、テキスト、画像、音声およびこれらの組み合わせからなる新たなコンテンツを生み出すことができる。そのため、コンテンツの提供に特化した業務(執筆、画像作成、コーディング、その他の膨大な知識と情報を必要とする業務)が、いまやジェネレーティブAIの特異的な影響下にあるようだ。ただし、その影響が具体的にどのような結果をもたらすかは明確ではない」デクレマーらはこの論考で、AIがクリエイティブ業務にもたらす影響の可能性として、次の3つのシナリオを提示している。
■予想される3つのシナリオ
✔シナリオ1:AIは業務を補助し、生産性を増幅する
ジェネレーティブAIツールは、AIの完全な民主化をもたらす。「これらのアプリケーションの大半は非常に使いやすく、すでに、小学校レベルの言語能力があれば子どもでもコンテンツをつくりだせる状況にある」とデクレマーらは指摘している。「AIは、多くのクリエイターを失業に追い込むのではなく、クリエイターがすでに行っている仕事を支援し、より速く効率的な制作を可能にする。このシナリオでは、自然言語によって操作できるジェネレーティブAIが新たなアイデアやテキストを生み出すのにかかる時間を短縮するために使われることで、生産性が増幅する」
✔シナリオ2:ジェネレーティブAIが大量の安価なコンテンツを生み出し、人の手による制作物を駆逐する
この分野に関しては、知的財産に関する法律がまだ整っておらず、整備される前に、AIが生み出したコンテンツの氾濫が起こる。「アルゴリズムとの不当競争や不十分なガバナンスにより、生身の人間の制作物が駆逐される」とデクレマーらは推測する。「このシナリオでは、アルゴリズムが生み出したコンテンツの津波が発生し、人間のライターやプロデューサー、クリエイターらを溺れさせる。優れた才能をもつクリエイターでさえ、市場からいなくなる」
✔シナリオ3:人の手による創作物にプレミアがつく
AIが生み出したコンテンツが市場にあふれる中、人々は「本物」を渇望するようになり、こうしたコンテンツに進んで課金するようになるかもしれない。「ジェネレーティブAIは、驚異的で、時にあざやかな能力を発揮しているものの、正確性に問題を抱えている。一見もっともらしいが、実は反事実や論理矛盾に満ちたテキストを生み出すことも珍しくない」とデクレマーらは指摘する。実際には、これら3つのシナリオが混ざり合って生じる可能性があり、ビジネスの特性によって、状況は変わってくるだろう。文化はテクノロジーをたやすく打ち負かすことができるのだ。「企業のビジョンや目標」における変化に対応する能力に関しては、人間がAIに置換されることはないだろう。「文化的な変化は、ジェネレーティブアルゴリズムの学習よりもはるかに迅速に起こる。つまり人間は、アルゴリズムが太刀打ちできないダイナミズムを維持するだろう」とデクレマーらは述べている。
Joe McKendrick
最終更新: 5/7(日) 16:00
(C) linkties co.,ltd.
Yahoo!ニュース
人工知能研究家・清水亮 GPT以後「知識の集積地」としてのネット空間は汚染されていく。私たちはいつまでWikipediaを信用できるのか
2023/5/11(木) 17:31
人工知能はウソをつく
清水亮「ネットを無条件に信用できるのは、あと数年が限界かもしれない」(写真:中央公論新社)
急速に進化を続ける人工知能。日本政府も戦略会議を立ち上げ、その活用や対策について議論を交わし始めた。一方、プログラマーで起業家、そして人工知能の開発を専門とする清水亮氏は「信頼に値するAIを生み出せるかどうかで私たちの未来は変わる」と喝破する。その清水さんによる人工知能についての連載、第一回のテーマは「ネット空間の汚染が始まる」です。
■ある日の会話
「百科事典を作りたいんだけどさあ」
そういうと、Yは目を細めた。
「なんですか、それは。AIに関係してるんですか?」
「いや、この先、Wikipediaってますます信用ができなくなっていくと思うんだよね。もともとけっこういい加減な情報であふれている部分も多いんだけど、今後GPTみたいな大規模言語モデルでさらに間違った情報が増えていくから、あえて人間が編纂した百科事典が必要になってくると思うんだよ」
Wikipediaはたとえば関係者が編集することを許されていない。自分自身について間違った情報が書かれていても、修正することかできないのだ。このルールによって、勘違いや誤読、もう古くなっている情報がそのまま放置されているケースもある。Wikipediaが登場したばかりの頃は全体の記事が新しかったのだが、長い年月が経って古い記事が誤った、または古い情報のままになっているケースが散見されるようになった。
■なぜ百科事典なのか
2023年の5月現在、世の中には対話型の人工知能「ChatGPT」にまつわる話題が溢れている。MicrosoftOfficeにGPTが搭載されるといったアナウンスが流れたり、SlackやNotionにもGPTと統合するプラグインが相次いで出現している。GPTは便利だが、平気で間違った情報をさも本当のことのように語る欠陥がある。この欠陥はおそらく簡単には直らないし、何年かけても直らないと指摘する専門家もいる。だがこの便利さは何者にも代えがたく、一年もしないうちに、ネットはGPTが出力した真偽不明の情報で溢れかえってしまうだろう。そういうときにこそ、人間にしかつくれない百科事典のようなものが必要なのだ。
■知識の集積地としての「インターネット」は危機的状況にある
「まさか、紙で百科事典を作りたい、ということですか?」
「うーん、紙というか、まあ紙じゃなくてもいいんだけど、とにかくインターネットからは絶対に見られない、買うこともできない、誰も読むことができないような百科事典を作りたいんだよ。インターネットで読めるようにすると、GoogleやMicrosoftが自社のAI学習用に使うだろうからね」
有名な「ロボット三原則」を提唱したSF作家のアイザック・アシモフの代表作のひとつに「ファウンデーション」シリーズがある。「ファウンデーション」シリーズでは、栄華を極めた銀河帝国の衰退をある数学者が予告する。この数学者は、心理歴史学という学問分野を作り、心理歴史学上の計算の結果、銀河帝国が崩壊し、数万年に及ぶ野蛮な時代が到来することを予測する。この予測に基づき、心理歴史学者は銀河皇帝に「銀河帝国の最辺境の地にファウンデーションを設置し、銀河帝国の知識のすべてを集約した銀河大百科事典を編纂すべし」と上奏するのである。アシモフは「ファウンデーション」シリーズの執筆に当たり、エドワード・ギボンの「ローマ帝国興亡史」に着想したという。文明が衰退していくときに危機を救うためにまずすることが「百科事典の編纂」というのは非常に興味深い。今、実際にインターネットは人間の知識の集積地としては危機的状況である。これはChatGPTが登場する何年も前から始まっていたことだ。
■GPT以後のインターネット
ロボット型検索エンジンはなにもGoogleが最初ではなかった。検索エンジンそのものもGoogleが最初ではない。しかしGoogleの価値を決定づけたのは、「ページランク」というアルゴリズムで、それはすなわちページの被リンク数が多ければ多いほどそのページには価値があり、価値があるページからのリンク数が多いほど、やはりそのページの価値は高いと推定するものだ。しかし、これがうまく機能したのはGoogleがブレイクする直前のほんの数年のことだった。Googleの意図に反し、このアルゴリズムを利用して、本来は価値のないページであるにも関わらず、無数のダミーサイトを作って相互にリンクし、ページランクを水増しする、いわゆるSEO(検索エンジン向け最適化)サイトが多数生まれた。現在はSEOを専門にする会社などもあり、Googleは日夜SEO対策に頭を悩ませているが、決定打がない状況だ。筆者のような古くからのインターネットユーザーから見ればダミーサイトなどを伴う過度のSEOはインターネットを混乱させるだけの野蛮な行為であり、意味のないスパムサイトを量産することは全く馬鹿げたことに思える。もちろん、検索エンジンに対してページの内容をわかりやすく伝えるような「行儀のいいSEO」はこの限りではないが。このダミーサイトの制作は昔から自動化されていた。Googleがかなり積極的に人工知能への投資を行っていたのも、SEO業者が作ったダミーサイトを自動的に判別し、検索結果の精度を高めるためだった。しかし、皮肉にもGoogleが発明し、無料で公開したトランスフォーマーという人工知能技術は、GPT(GPTのTはトランスフォーマーを意味する)を生み出し、検索エンジンにとっての悪夢を生んだ。今やGPTで生成された文章を人間の生成した文章と完璧に区別することはできない。それどころか、書いてある内容が真実かどうかすらわからない。GPT以後のインターネットには実在しないかもしれない店や製品や人物の情報で溢れ、いまのところは無事だと信じたいが、WikipediaさえいつのまにかGPTによって書き換わっている可能性がある。それも暇な学生が、面白半分、遊び半分でできてしまう。
■インターネットが汚染されていく
そんなことあるわけない、と思うかもしれない。ほんの少し前には、バイト先の冷蔵庫に入って写真をとって、それを世界中にばら撒くといった、常軌を逸したことが行われてきた。Wikipediaだけがいつまでも無事だとなぜ言えるだろうか?GPTを検索エンジンのように使えると考え、GPTの出力でWikipediaを「修正」してあげようと考える人々の間には、悪意さえないかもしれないのだ。結局のところ、本当のことはなにもわからなくなる。その傾向はこれから益々強まっていく。誰もが参加できることで英知を結集することかできたインターネットが、AIを使って知能を拡張されたけれども無知な人、あるいは悪意を持った人たちによって汚染されていく。そしてこの流れは不可逆であり、今更取り戻せない。
■いつまでネットを無条件に信用できるのか
そういう自分さえ、最近はGPTなしでは原稿を書くことさえ億劫になることがある。専門的な知識さえもっていれば、GPTが出力した文章のどこまでが嘘でどこからが本当かはわかるが、専門外のこととなると全く自信がない。なおこの原稿は久しぶりにGPTを一切用いずに書いている。むしろ新鮮なくらいだ。今、GPTが検索エンジンを参照できるようにしてもっと「正しい」ことをしゃべらせるようにしようという動きもあるが、検索エンジンの検索結果そのものが汚染された場合、もはやこれに対抗することはできなくなる。ネットが無条件に信用できるのも、あと数年が限界かもしれない。いやそれとも、とっくに信用するに足りないものになっているのか。この連載を通じて、その行く末を見守っていきたい。
清水亮
最終更新: 5/11(木) 17:49
(C) 中央公論新社
■コメント
('-')
「知識の集積地」としてのネット空間は早い時点で「汚染」されていて、Wikipediaを含む集合知的サイトも悪意があったり知識の正確さに乏しい編集者の手によって知らずしらずのうちにゆがめられているケースも多々あるように思える。ましてやSNSでの流言飛語は一度拡散すれば完全に正されることはまず不可能だ。なのでGPTによる「汚染」とか言われても、その前に(一部の)人間のモラルが信用ならない時点で何をいわんや、って感じがする。
('-')
もの書きの端っこにいるのですが、GPTを使ってものを書いたことはまだありません。そこの一線は守っています。でもWikipediaは見てしまうので、意識なく、書いたものが影響されていることはありえます。ふつう、その意識があるときは、出典をあたりますけど。でもネット上の出典なら作られたものかもしれないし、いずれ、紙の情報もネット由来であれば、汚染、と言っていい状態になるというのはわかります。Skynetによる支配というよりも、混沌が出現するのが先のように思いました。
('-')
wikipediaに限らずだが、最低でも複数のソースを確認するのが常識かと思っていた。新たな辞書を作ったところで、信用できるかどうかはわからんから、変わらないんだよ。生成系はソースが正しいとしても、出力は確率的に作られたデータになるわけだから正しい100%結果を期待するような使い方はダメだろう。物書きの場合、代筆なんてもってのほかだが、公正や編集、組み立てなど適用方法によって利益ある用途になるでしょ。
('-')
ネット上の情報が真偽不明なのは、今に始まったことではない。そもそも、既存メディアの情報も真偽不明であるし、何なら論文ですら、である。確からしさは自ら吟味すべきであり、それを怠ったツケは自分で払うのが筋だ。必要なのは、情報発信の責任を追及する法整備だと感じる。これまで既存メディアですら、誤情報はおろか名誉毀損の責任もロクに追及されてこなかった。裁判の荷が重い一般人は、泣き寝入りしてきた。社会的責任が重いはずの既存メディアが取らないなら、誰も取らなくて良いだろう。襟を正してほしいものだ。
ところで、「AIは嘘をつく」という表現はいかがなものか。嘘とは騙す意図を前提とするように思う。意図がないなら誤情報だ。つまり、AIに意識が備わっているかいないかで、適切な表現が異なる。この記事ですら、こうなのだ。誤情報なんてAIに頼らずともありふれていて、誰も責任を取っていない現状がここにあるのだ。
('-')
評価されるものが残るってやれば良いのだけれども、現実は注目されるものしか残らない。だからね。やっかいだよね。ただ、誤りが分かる程度の知識量を持っていて、Wikipediaを利用するだけの方で訂正も資金提供もしない人が、Googleなどへの反発か、ITへの反感か知らんけど百科事典を作って悦に入っても、その百科事典の知識を正解として学習した文章を通じてAIに知識が蓄積する。
それに、本は状況が変わったら記述を変更できないので、新しいことはやがて間違ったことになるか不十分なことになってしまうだろう。滅びないと記述し得ないような、永遠に正しい百科事典は遺産でしかありえず、Wikipediaすら訂正出来ないような公共心の無い人がそれを作っても小金をせびるネタにしかならない。なんだかね。ネット空間の知識を検証し正してゆくことをこつこつできるのが真の知識人というわけなんだろうね。
('-')
それを言うなら、AI登場の前からですよ。
工芸をやっています。そのジャンルでは、革新的な作品を作った人や、優れたオリジナルデザインを作った人がいる。が、インスタなどが流行りはじめて、誰がすごい人なのか、分からない事態になっている。新しくその工芸を習い始めた人は、インスタでよく見る人がすごい人だと思っている。丸パクりして、どういうつもり?みたいな投稿をしている人を、オリジナルだと信じていた人も多い。そして、丸パクりした人にも悪気なんてなかったらしい。
素人に「ケ」が生えた程度の、ちょっとばかり小器用な人が、自分でデザインを練ることへのリスペクトもないままに、お手軽に人のデザインを真似て、アップする。一番手間がかかる所を端折るのだから、頻度高く更新できる。結局、その人は誰かから指摘を受けたのか、適当な理由をつけて、ユーザーを閉じました。既に、ネット上は、ゴミ情報だらけですよ。
Yahoo!ニュース
https://news.yahoo.co.jp/articles/fb28eb23fcce92f21fc9271cbe36c93a6ffa9a74
https://news.yahoo.co.jp/articles/76a3dcff205459cb43c9ce85b01e559920a19e2e
https://news.yahoo.co.jp/articles/f92d6f5613e7bdc054ea6e8ec9b4d81a0210ad1a
0 件のコメント:
コメントを投稿