ChatGPTだけでない、さまざまな生成AI
1年前、ChatGPTを開発・運営しているOpenAI社のCEOであるサム・アルトマン氏の名前など、日本のほとんどの人が知らなかったのではないか。それがこの原稿執筆中の11月末現在、アルトマン氏のCEO解任・復帰騒動が日本の新聞の1面を飾る大ニュースとなった。リリースからわずか1年でChatGPTは私たちの身の回りに大きく入り込んでおり、ChatGPTをExcelのマクロ作成などの業務にどう使うかといった本は何冊も出ており、このコーナーでも取り上げたこともある。とうとう世界的に著名なコンサルティング企業が、業務全般の効率化に生成AI(ジェネレーティブAI)を活用しようという本が出るところまで到達したのだ。
企業や行政、学校など知的活動を行うところ、特に文書作成を主としている場では、生成AIがもたらすインパクトはきわめて大きい。これまで長い時間を要していた報告書やレポート、説明書などの作成が生成AIを活用することで大幅に効率化できるからだ。顧客からの問い合わせなど対話的なサービスも、生成AIによってかなり合理化できそうだ。
これまでの文字認識、翻訳、画像認識といった与えられたデータに対して何らかの知的処理を行うAIに対し、生成AIは文書やアイデア、プログラムソースコード、画像、動画、3Dモデル、作曲・編曲といったさまざまなコンテンツを生成できる。その火付け役となったのはChatGPTだが、他にもGoogleのBard、MicrosoftのBing、GitHub Copilotといったテキスト系、Stable Diffusion、Adobe Fireflyなどの画像系、さまざまなサービスが稼働している。このようなオープンな生成AIサービスだけでなく、企業内でのクローズドな利用を目的としたカスタム生成AIの開発も進んでいる。
生成AIが注目を集めるにつれ、企業の投資も急速に増えている。本書によれば、2023年6月にアクセンチュアは、AIに30億ドル(約4,500億円)の大型投資を発表した。市場全体ではこの第一四半期だけで17億ドルが投資され、さらに106億ドルもの未実行投資が残っているという。
生成AIはプロンプト次第
生成AIを使う上で欠かせないのが適切な「プロンプト」作成だ。プロンプトとは、生成AIに対する指示・問いかけ文のこと。実際の業務でも部下や外注先に対し、的確な指示を出すのか、あいまいな指示を出すのかで成果物は大きく違ってしまう。表情や行間を読み取れない生成AIであれば、その差は歴然としてくる。
ChatGPTであれば、よく使われるのがプロンプトの最初に「あなたは〇〇のエキスパートです」と役割を指定し、専門家としての回答を促す方法がある。本書では例として『営業担当者が試したい内容に法務の観点を入れたい場合、「あなたは法務担当者です。〇〇したいのですが、どのような法的リスクがあり、利用するにあたりどんな点を注意すればよいでしょう?」と質問してみよう』とある。
話者(ここではChatGPT)の立場、対象の立場、目的などを細かく指示することでより的確な答えが返ってくる。ChatGPTはどういった分野の専門家なのか、生成されたコンテンツを読むのは上司か部下か、取引先か顧客か。顧客なら年齢層、性別、嗜好はどうなのか。いずれは生成AIがプロンプトまで生成してくれるかもしれないが、しばらくは「日本語がうまく理解できないがものすごく優秀な専門家を相手にする」と思ってプロンプトを練る必要がある。
生成AIのリスクと対策
ChatGPTなどLLM(Large language Models、大規模言語モデル)を使ったテキスト生成AIを使う上で、避けて通れないいくつかのリスクが存在する。一番大きな問題は「嘘つき(ハルシネーション)」だ。ChatGPTはまるで本当であるかのように、悪びれずに嘘をつく。本書によれば「漠然とした依頼や抽象的な質問だと、LLMの生成能力が悪い方向に発揮され、事実に基づかない回答を無理やり生成する可能性が高くなる」という。つまり生成AIが嘘をつくのは宿命なのだ。
本書に紹介されている例では、生成AIが出力したセクシャルハラスメントをした法律学者のリストが取り上げられている。そのリストにはある法学教授の名前が掲載され、ゼミ旅行中、学生に触れようとしたなどといった『ワシントンポスト』の記事が紹介されたという。この教授は確かに実在の人物だが、セクシャルハラスメントの事実はなく、『ワシントンポスト』の記事も存在していなかった。
本書では「LLMから出力された情報を鵜呑みにせず、人間が必ず確認することを怠ってはならない点に気をつけてほしい」とわざわざゴチックで強調しているほどだ。でも『ワシントンポスト』で報道されていたとなると、「信じるな」という方が難しいだろう。
差別・偏見の混入というリスクもある。生成AIが学習に使っているデータは基本的にインターネット上から収集されたものなので、社会の多数派見解が反映される。米国の場合は、白人男性優位という性差別的なバイアスがかかっている。画像生成AIに「CEO」と指示すると白人男性ばかり、「ソーシャルワーカー」と指示すると有色女性中心の画像が生成されたという。こんな出力結果を無批判に利用してしまうと炎上することは間違いない。
AIが学習に使っている大量のデータはインターネット上で公開されているものがほとんどだが、その過程で著作権が保護されているか、生成物が著作権を侵害していないか、という問題も未解決だ。
プログラムソースコードを生成するGitHub Copilotは、GitHub(ギットハブ)で公開されているソースコードを勝手に使ったとして訴訟を起こされている。GitHubで公開しているソースコードはフリーソフトウェア・オープンソースソフトウェアだが、いずれも著作権があり、利用するにはそれぞれのライセンスに従わなければならない。Copilotはそのライセンスを無視して学習し、さらに元ソースコードのライセンスを付けずに「新た」なソースコードを生成したとして二重に著作権を侵害しているというのだ。画像生成AIであるStable Diffusionは、画像販売サイトであるGetty Imagesが保存している画像を同意または適切なライセンスなしで学習に使ったとして訴えられている。
生成AIを使った顧客が著作権侵害で訴えられる危険性もある。罰金や和解金が生じた場合、生成AIベンダーが補償するという制度を立ち上げたところもある。プロンプトに与えた個人情報や企業秘密が学習に使われ、他人への出力に使われることで個人情報や企業秘密が漏洩する可能性もある。そのため自治体や企業によっては業務で生成AIを使うことを禁止・制限しているところもある。それらの対策として、学習させた情報を外部で再利用させない企業内専用生成AIを導入する企業も増えている。
ユートピアかディストピアか
最終章「生成AIのもたらす未来」では、生成AIが普及することによってハルシネーション、悪用、格差拡大が危惧され、さらには核兵器と同等のリスクがあると述べられている。
見たい映像、知りたい情報だけを取り込むフィルターバブル、同じような意見ばかりで閉じこもるエコーチェンバー現象が起きている世界では、ハルシネーションが社会に大きな影響を及ぼす危険性も高い。今年3月、ドナルド・トランプ前アメリカ大統領が逮捕・収監されたという写真がネット上で出回った。実はこの写真、画像生成AIのMidjourneyを使って生成された架空のもの。トランプ支持派が事実と誤認し、暴動を起こしかねない危険性もあったという。
さらに、悪用されるリスクもある。ChatGPTは法令に違反する回答、たとえば毒物の作り方やマルウェアのコードを教えないようになっているが、プロンプトを工夫することで規制の裏をかくことが可能だ。犯罪者が生成AIを悪用して詐欺、テロ、戦争、人権侵害、株価操作、世論操作、洗脳などの目的を達成することは、さほど難しくはない。
生成AIを使いこなせる人・企業・組織・国と、そうでないところでは技術進歩や生産性に大きな差が生まれ、格差を広げるリスクもある。本書では「生成AIが生み出す利益を公平に分配する方法・枠組みがなければ、国際的にも国内的にも不平等・格差が広がるリスクがある」という。
2023年5月にはアメリカのNPO、AI安全センターが「AIによる人類滅亡のリスクを軽減することは、パンデミックや核戦争などと同様に世界的な優先課題だ」とする声明を出し、OpenAIのサム・アルトマンCEO、トロント大学のジェフリー・ヒントン名誉教授、アルファベットのデミス・ハサビスCEOなど350人超が署名した。
冒頭で述べたサム・アルトマン氏のCEO解任をめぐる騒動は生成AIの未来をユートピアと信じ、GPTの急速な改良を目指すアルトマン氏らと、早急なGPTの進化は危険性が高いとし、開発のスローダウンを提唱する経営陣の対立が根底にあるという。今後もこのようなゴタゴタは様々な場面で繰り返されるだろう。
生成AIが進化した社会がユートピアになるのか、ディストピアになるのかわからない。だが、一度誕生し、普及が始まった技術をゼロにすることは不可能だ。私たちは嫌でも生成AIを新たな同僚として迎え入れ、付き合っていかなければならないだろう。うまく付きあうことは可能なのか。もしかしたら生成AIが冷酷な上司になってしまうかもしれない。本書はそういった社会を生きていかなければならない、これからの人にお勧めしたい。
まだまだあります! 今月おすすめのビジネスブック
次のビジネスモデル、スマートな働き方、まだ見ぬ最新技術、etc... 今月ぜひとも押さえておきたい「おすすめビジネスブック」をスマートワーク総研がピックアップ!
『マイクロソフト「Copilot」の衝撃 生成AI時代のマーケティング』(赤井 誠、杉原剛、大野柊一、八木克全ほか 著/日経BP)
多くのビジネスパーソンが利用するWindowsパソコンに大きな変化が起きた。マイクロソフトはAIをCopilot(副操縦士)として提供するスタンスで、Windows 11にAI機能を組み込んだ「Copilot in Windows」の提供を開始。そして2023年11月、PowerPoint、Excel、Wordといった仕事で欠かせいないオフィスソフトウエアにも、AIを搭載した「Microsoft 365 Copilot」が企業ユーザー向けに提供される。AIが副操縦士、あるいは頼もしいコンシェルジュとして共に働く時代には、これまでと違った新しい働き方、新しいAIを活用する適性、スキルが必要になる。本書では、主にマーケティング関連職を例に、生成AIで変わる業務スキーム、使い倒しノウハウを豊富に提示している。AI伴走時代を生き抜くビジネスパーソン必読の書。(Amazon内容解説より)
『生成AI導入の教科書』(小澤健祐(おざけん)著/ワン・パブリッシング)
本書の著者である小澤健祐さんは、日本最大のAI専門メディア「AINOW」の編集長を務め、ディップ株式会社で生成AI活用推進プロジェクトを進めるほか、AI活用コミュニティ「SHIFT AI」のモデレーターとしても知られるなど、若手ながらAI業界で幅広く活躍するキーパーソンのひとりです。そんな著者が、これまでのAIやDXの動向を振り返りつつ、生成AIの概要や企業のデジタル活用の現状から、本質的なDXのプロセス、生成AIを活用するためのプロンプトエンジニアリング、各社の活用事例まで網羅的に解説しています。(Amazon内容解説より)
『生成AI 「ChatGPT」を支える技術はどのようにビジネスを変え、人間の創造性を揺るがすのか?』(小林 雅一 著/ダイヤモンド社)
今、何が起きているのか? これからどうなるのか? 人工知能とそれを支えるクラウド技術などの進化を長年追い続けてきた著者による、今後10年の社会変革を理解するためのベーシック・レポート。【主な内容】◆ChatGPTの本質的なすごさはどこにあったのか? ◆衝撃の論文「Attention Is All You Need」が生み出したもの ◆「電卓化するAI」は何をもたらすのか? ◆OpenAI 最高経営責任者サム・アルトマンとはどんな人物なのか? ◆OpenAIとマイクロソフトがGoogleの喉元に迫れたわけ ◆AIで激変するWord・EXCEL・PowerPoint ◆次世代の覇権をもたらす大規模言語モデル(LLM)とは?など。(Amazon内容解説より)
『生成AI 社会を激変させるAIの創造力』(白辺陽 著/SBクリエイティブ)
今話題の「ChatGPT」や「Stable Diffusion」などの「生成AI」がもたらすビジネスチャンスをつかめ。生成AIとは、「コンテンツやモノについてデータから学習し、それを使用して創造的かつ現実的な、まったく新しいアウトプットを生み出す機械学習手法」であり、新しいものを「創造する」という意味において、従来のAI(Discriminative AI:認識系AI/識別系AI)とは区別されます。本書では、第一線のソフトウェアの具体例の紹介などを通じて、これらのデジタルの画像(イラストや写真加工、写真生成)、動画、音楽・音声、文章を生成するAIが生み出すチャンスとともに、問題点とその解決の流れについて解説します。(Amazon内容解説より)
『生成AIの法的リスクと対策』(福岡真之介、松下外 著、日経BP)
ChatGPTなどの生成AIには、多くの法的リスクがあります。ライバルに先んじて開発・業務利用・ビジネス活用したくても、法律の知識がなければ怖くて提案すらできないでしょう。リスクとしてよく話題に上がるのは「著作権侵害」ですが、実はそれだけではありません。「著作権侵害」のほか、「秘密情報の漏洩」「ハルシネーション」「人格的権利・利益の侵害」「個人情報保護法違反」「バイアスによる差別」「フェイクニュースの拡散とマルウェア作成などの不適切利用」などです。同じ法的リスクでも、生成AIの開発側とユーザー側では観点が異なりますので、本書は両方の観点から解説します。(Amazon内容解説より)