AIリテラシー オンライン講座スクリプトPDF

Document Details

IdolizedKrypton

Uploaded by IdolizedKrypton

ユームテクノロジージャパン千葉佑介

Tags

AIリテラシー AI 大規模言語モデル オンライン講座

Summary

AIリテラシー オンライン講座スクリプトは、AIの起源と発展、そして実践的な活用方法について解説しています。大規模言語モデル(LLM)に焦点を当て、AIを人間の強化に役立てる方法、組織でのAI活用方法、AIの倫理的な使用など、実践的な内容が含まれています。

Full Transcript

AIリテラシー・オンライン講座スクリプト [[AI Literacy - V2409 - JP]](https://docs.google.com/presentation/d/1k8wFjG-n5q7lm_oQcgBzgXqrby1Y9MTfGDic6x6nGoQ/edit?usp=sharing) 動画0(イントロダクション) ========================== 【p0】こんにちは、「AIリテラシー」コース講師のユームテクノロジージャパン千...

AIリテラシー・オンライン講座スクリプト [[AI Literacy - V2409 - JP]](https://docs.google.com/presentation/d/1k8wFjG-n5q7lm_oQcgBzgXqrby1Y9MTfGDic6x6nGoQ/edit?usp=sharing) 動画0(イントロダクション) ========================== 【p0】こんにちは、「AIリテラシー」コース講師のユームテクノロジージャパン千葉佑介です。これから数回にわたって、AIリテラシーを一緒に探求し、発展させながら指導していきます。 ***************************************** ***************************************** ***************************************** ***************************************** ***************************************** ***************************************** ***************************************** ***************************************** ***************************************** ***************************************** ***************************************** ***************************************** ***************************************** 【p3】プロフィール紹介 ![](media/image2.png) 【p4】AIリテラシーには実践が必要です。それは、運転や水泳を学ぶのに似ています。どれだけ優れた世界チャンピオンの水泳選手やレーサーが教えても、練習しなければ習得できません。同様に、AIを学び、使用するにも実践が必要です。  このコースを通じて、AIリテラシーを専門のプログラムとして発展させるために、多数の学術研究を参照しています。このコース構成は、AKIEEフレームワークに基づいています。  AKIEEは以下を表します:Awareness(認識)、Knowledge(知識)、Interaction(相互作用)、Empowerment(能力強化)、Ethics(倫理)  このAIリテラシーコースでは、LLM(大規模言語モデル)と対話し、練習セッション中にプロンプトを書き、モデルによって生成されるフィードバックを観察し、AIコーチから構造化されたコーチングとフィードバックを受けます。  能力強化フェーズでは、日常の業務でLLMを使用する実践的な経験を積むことができます。  また、組織でAIを使用する際には、LLMのコンプライアンスと倫理的な使用に焦点を当てることが重要です。 動画1-1(AIの起源と発展) ======================== 【p5】コース全体は先ほどご紹介したAKIEEフレームワークに基づいて構成されています。私たちのAIリテラシーコースは、5つの主要モジュールと1つの最終レビュー・モジュールの6つのモジュールで構成されています。  最初のモジュールでは、AIの起源と発展を紹介し、現代に至るまでの歴史的背景を提供します。第2モジュールでは、生成AIの時代におけるAIリテラシーの開発に焦点を当て、その前半ではAI、後半ではAIリテラシーについて掘り下げます。  前半では、学術用語、技術的内容、または複雑な数学的方程式には立ち入りません。このコースは、一般ユーザー向けに設計されており、わかりやすくかつ学術的に厳密な生成AIの説明を提供することを目的としています。  第3モジュールは、コースの核心部分であり、プロンプトリテラシーに焦点を当てています。プロンプトリテラシーには、まず私たちが開発したRSTCCフレームワークから始まります。このフレームワークを習得すれば、ほとんどの一般的な職場での問題を大規模言語モデルを使用して解決できるようになります。  また、RSTCCフレームワークを市場にある十数種類の一般的なプロンプトフレームワークと比較します。私たちのフレームワークは他のモデルやシステムと互換性があり、柔軟に対応できます。このセクションでは、RSTCCプロンプトフレームワークと5段階のプロンプトモデルについて説明します。  第2部では、GKn、RAR、RAGなど、一般的に使われるプロンプトパターンを超えた12の優れたプロンプト技術を紹介します。これらの技術により、LLMの専門的な能力を引き出すことができます。このモジュールの第3部は、UMUのAIリテラシーコースに特有のもので、「LLMを建設的に使う」と呼ばれます。 「LLMを建設的に使う」という概念は、消費者がLLMを使用する方法とは異なります。消費者側では、人々は通常、モデルを使用して結果を迅速に得て、それに満足し、先へ進むという傾向があります。つまり、シンプルさを重視しています。しかし、職場や組織では異なる課題に直面します。LLMを外部の知的資源として利用し、単にAIの仲介役として使うのではなく、個人の能力を高めることができるかどうかが問われます。  例えば、AIに依存してプロンプトへの回答を生成し、それを単にメールやドキュメントにコピー&ペーストするだけでは、そのような業務は将来自動化されるか、無意味なものになるでしょう。単にコピー&ペーストするだけなら、新卒者や教育のない人でも雇うことができ、こうした業務は持続的な成長には繋がりません。  だからこそ、私は重要なポイントを強調します。このAIリテラシーコースは、AIを人間の強化に役立てることを主張します。AIを人間の代替とするのではなく、人間の能力を高めるために利用するのです。学術的な観点から見ると、AIによって人間を強化するモデルはドイツ式に、AIによって人間を置き換えるモデルはアメリカ式と呼ばれています。  AIは私たちをより優れた自分にするための手助けをし、組織内の全員の能力を向上させることができます。生産性や創造性が向上し、仕事の経験が改善されると、組織全体が前進し、結果として収益と利益の成長に繋がります。  AIを本当に効果的に活用している組織は、研究によれば、より多くの人材を雇用し、さらに多くのトレーニングに投資しています。仕事を削減しようとしている組織は、AIを正しく活用していない可能性が高いのです。  第4モジュールでは、LLMを一般的な職場シナリオでどのように活用できるかについて掘り下げます。実際のシナリオとベストプラクティスを一連のケーススタディとして準備しており、それをすぐに業務に応用できるようにしています。  最後に、第5モジュールではAIの倫理的な使用について議論します。なぜなら、このコースは個人の使用に関するものではなく、組織内でどのようにAIを活用してパフォーマンスを向上させるかに焦点を当てているためです。これは必然的に、AIを職場で使用する際に、どのようにコンプライアンスと倫理を確保するかという問題に関わってきます。  最終モジュールはコースの総復習と反省です。たくさんの洞察や重要なポイントを用意しています。すべての詳細な学術的な知識、実践的なスキル、そして経験を皆さんと共有したいと考えています。AIリテラシーを学ぶことで、この生成AIの時代において大きなブレイクスルーを達成できると信じています。 ![](media/image6.png) 【p6】まず最初に、AIがどのように機能するかについての原則を理解し探求するために、いくつかの基本的な概念を紹介します。 心配しないでください!このコースの目標は、皆さんが自分の大規模言語モデル(LLM)製品を開発することではありません。LLMについて学ぶ際には、関連する知識や概念を理解することが重要です。最も大切なのは、AIに関連する概念、知識の枠組み、そしてその原則を把握することです。これにより、AIを使う際に、その限界と能力の両方を理解できるようになります。 私たちはAIの強みを活用し、弱点を避けたいと考えています。これは、この第1章でAIの基本原則について学ぶ際に維持すべきマインドセットです。 まず、AIとは何かについて話しましょう。AIは2つのレベルで理解することができます。1つは「知能」ともう1つは「人工知能」です。知能とは、理由を述べ、計画を立て、問題を解決し、抽象的に考え、複雑な概念を理解し、経験から学ぶ人間の一般的な精神能力を指します。 一方、人工知能は、さまざまな計算技術を通じて人間の知的行動を模倣し、幅広い問題やタスクを解決することを目指しています。 AIの主な目標には2つあります。1つは技術的な目標で、コンピュータが有用なタスクを完了することです。これは、必ずしも人間と同じ方法で行われるわけではありませんが、最終的には望む結果を達成します。もう1つは、科学的な目標です。AIの概念とモデルを使用して、人間や他の生物に関する質問に答えることです。 【p7】AIを4つの視点から理解する AIを理解するためには、4つの相互に関連する視点があります。1つは「人間のように考える」(think humanly)こと、もう1つは「人間のように行動する」(act humanly)ことです。 もう一方の視点では、合理性に焦点を当てています。これには「合理的に考える」(think rationally)ことと「合理的に行動する」(act rationally)ことが含まれます。 したがって、AIはこれら4つの視点から定義できます。すなわち、「人間のように考える」、「人間のように行動する」、「合理的に考える」、「合理的に行動する」ということです。これらの特徴がAIの本質を形作っています。 ![](media/image1.png) 【p8】 AIは3つの大きなタイプに分類できます。大規模言語モデル(LLM)が登場する前、ほとんどのAIは人工狭義知能(ANI)として分類されていました。 これを人工狭義知能と呼ぶのは、この段階でAIが基本的な問題解決能力を持ち、特定の目的に特化して設計されているからです。特定の専門分野や限定されたシナリオでは、AIは人間のパフォーマンスを超えることができます。 当然のことながら、将来的にはAIがより多くのことを行えるようになることを期待しています。多くの人は、AIがより強力になる時代を待ち望んでいます。これが、人工汎用知能、すなわちAGI(Artificial General Intelligence)と呼ばれるものです。 現時点では、人間のAI技術はまだAGIのレベルに到達していません。私たちは人工狭義知能(ANI)と汎用人工知能(AGI)の間にあり、その間に位置するのが生成AI、略してGen AIです。 Gen AIは、人間の創造的な思考やプロセスを学習し、それを模倣して新しい、独自のコンテンツを生み出すAIを指します。これは自然言語生成、芸術作品の作成などの分野で広く応用されています。 テキスト、画像、音声(歌を含む)、ビデオを生成する場合、その内容がAIによって作成されているならば、それはGen AIの一部です。 したがって、AIの発展は、ANIの段階から始まり、現在のGen AIの段階、そして将来的にはAGIの段階に進むことになります。これは私たちが目指している未来の姿です。 【p9】先ほど、AI開発の3つの段階について学びました:ANI、Gen AI、AGIです。これからは、これらの段階をさらに細分化して見てみましょう。まずは、レベルゼロ(L0)、または弱い人工知能(Weak AI)と呼ばれるANIについてです。 現在、私たちは特に対話能力を持つAIの段階、すなわち生成AI(Gen AI)の段階にいます。これをレベル1(L1)と呼び、通常チャットボットとして知られています。これはAI開発における重要なマイルストーンです。 AGIに向かって進むと、それをさらに3つの段階に分けることができます: レベル2:推論者(Reasoners)。このレベルでは、AIは人間のように問題を解決し、より強力な推論能力を持っています。今日のGen AI、特にLLMはある程度の推論能力を持っていますが、まだこのレベルには到達していません。 レベル3:エージェント(Agents)。このレベルでは、AIは考えるだけでなく、一連のアクションを実行し、完全なAIシステムを形成します。 レベル4:革新者(Innovators)。もしAIがさらに進化を続けるならば、それは発明や革新の支援を行うことができるかもしれません。 これらの3つの段階、すなわち推論者、エージェント、革新者はAGIを定義します。AIはまだこのレベルに達していませんが、科学者や業界の専門家たちはその実現に向けて努力を続けています。 【次】 あなた: 【次】 ChatGPT: ChatGPT \[sec6\] AGIがさらに進化すれば、人工超知能(ASI)に達する可能性があります。この段階は、SF的な要素が強く、AIが組織内でさまざまなタスクを管理するオーガナイザーとして機能することが想定されています。 したがって、AIの進化は、ANI(弱いAI)、現在のGen AIチャットボット、AGI(推論者、エージェント、革新者の各レベル)、そして将来の可能性としてのレベル5オーガナイザーまたは超知能へと進んでいきます。 この未来は、しばしばSF作品の中で興奮や恐怖とともに描かれていますが、私たちにとって最も重要なことは、現在のAI開発段階を理解し、AIを私たちの利益に使うことです。人間とAIの間に前向きな関係を築くことは、単に未来への期待や恐怖に依存するよりも遥かに意義深いことです。 AI開発の歴史 AI開発の歴史を振り返ると、人工知能は3つの大きな波を経験してきました。そして、私たちは現在、生成AI(Gen AI)の時代に突入しています。 1950年代には、チューリングテストや人工知能に関するダートマス会議の導入により、人類はAIの可能性を探り始めました。これにより、AIを用いて人間のような知的機能を再現することが目指されました。 この時期、AIは当初大きな注目と投資を集めましたが、一連の課題と停滞の時期、いわゆる「AI冬の時代」を迎えました。 1997年には、IBMのディープブルーがチェスの世界チャンピオン、ガルリ・カスパロフを破ったことで、AIの歴史に重要な一歩が刻まれました。これにより、機械学習の時代における重要なマイルストーンが示されました。 その後、2016年3月、GoogleのAlphaGoが囲碁の世界チャンピオン、李世乭を破りました。囲碁はチェスよりも遥かに複雑であるため、この勝利は、機械学習から深層学習の時代への進化を示す新たなマイルストーンとなりました。 2017年には、Googleが「Attention is All You Need」と題した画期的な論文を発表し、トランスフォーマーアーキテクチャを紹介しました。これにより、新しい時代への扉が開かれました。 この論文を基に、さらに探求が進み、2022年11月にOpenAIがChatGPTをリリースし、AIは完全に生成AIの時代に突入しました。 【次】 あなた: 【次】 ChatGPT: ChatGPT \[sec7\] チューリングテスト 1950年、科学者アラン・チューリングは有名なテスト、チューリングテストを提案しました。このテストでは、機械の知能が人間と区別できないレベルに達した場合、その機械はチューリングテストに合格したとされ、一定の知能を持つと見なされます。 この実験は非常にシンプルです。まず、ドアが閉ざされた2つの部屋があり、外側には質問者がいます。その後、質問者が両方の部屋に質問を投げかけ、1つの部屋は人間が、もう1つの部屋は機械が答えます。質問者は、どちらの部屋に人間がいるか、機械がいるかを事前に知らされていません。回答を見た後で、質問者が機械と人間を区別できなければ、その機械はその特定のシナリオにおいてチューリングテストに合格したとされます。 今日まで、特定の分野において、実際にチューリングテストに合格した機械も存在しています。2024年の学術論文によれば、GPT-4は54%のケースでチューリングテストに合格できるとされています。つまり、54%の状況において、質問者は人間と機械の応答を区別できなかったのです。 IBMのディープブルーがチェスの世界チャンピオン、ガルリ・カスパロフを破る 1997年には、IBMのスーパーコンピュータ、ディープブルーがチェスの世界チャンピオン、ガルリ・カスパロフを初めて破り、スコアは3.5対2.5となりました。 興味深いことに、1996年2月10日に行われた先の対局では、ディープブルーが2勝し、4敗を喫しています。初対戦では敗北しましたが、1997年の再戦では辛くも勝利を収めました。 このチェストーナメントでの勝利は、AIの進歩において非常に重要なマイルストーンとされ、コンピュータの知能が複雑な戦略ゲームにおいても優れた能力を示したことが証明されました。 AlphaGoが囲碁の世界チャンピオン、李世乭に勝利 Googleは、イギリスを拠点とする神経科学とAIに特化した会社であるDeepMindを買収しました。このチームは、囲碁をプレイするために設計されたAIアルゴリズム、AlphaGoを開発しました。 2016年3月、AlphaGoは、9段のプロ棋士であり、「石仏」とも呼ばれる無表情な姿勢で知られる李世乭と対戦しました。李世乭は、当時の世界最高のプレイヤーの一人とされていました。 囲碁とチェスの両方に不慣れな人々にとって、囲碁はチェスよりもはるかに多くの可能な手が存在するため、囲碁でのAIの勝利はAI能力の新たな頂点を示していました。AlphaGoは、李世乭に対して4-1で勝利を収めました。 【次】 あなた: 【次】 ChatGPT: ChatGPT \[sec8\] その結果、AlphaGoは韓国で名誉9段のタイトルを授与されました。これは、ディープラーニングAI技術の典型的な例です。 (中国限定:グローバル無視) AlphaGoが世界囲碁チャンピオン柯潔に勝利 2017年5月、中国・烏鎮で開催された囲碁サミットは、世界中の注目を集めました。当時、柯潔はソーシャルメディア上で活発に活動し、世界ランキング1位の囲碁プレイヤーとしてのタイトルを保持していました。 3日間にわたる対戦の結果、AlphaGoは柯潔に対して3-0で勝利しました。試合後、柯潔は自身の感想を共有しました。彼は、AlphaGoのプレイスタイルが非常に成熟しており、さらに、AlphaGoはわずか1石の差で勝つことに満足しているように見えると指摘しました。これは、圧倒的な勝利を目指すのではなく、コンピュータリソースを節約しながらより速い判断を行うための戦略でした。 また、柯潔は、AlphaGoがゲーム中に見せた非常に独特な手についても触れ、それは従来の囲碁記録には見られない新しい戦術でした。これらの前例のない手は彼に深い影響を与えました。 世界トップのプレイヤーとして、無敵の相手に直面したことで、柯潔は大きな心理的打撃を受けました。彼は、今後のトレーニングや練習が無意味になるのではないかと懸念を表明しました。 伝統的に、囲碁プレイヤーは他の人間との対戦で技術を磨いてきました。無敵のAIの出現は、囲碁界にとって新たな、そして強大な挑戦をもたらしました。 多くの人に知られていないことですが、AlphaGoはこの高プロフィールな試合の前に、オンラインプラットフォームで既に60連勝を達成していました。AIは、様々な異名でトッププレイヤーと対戦し、全ての試合で勝利していました。 この試合の後、中国の囲碁協会はAlphaGoに囲碁のプロ9段の称号を授与しました。ディープラーニングアルゴリズムを基盤にしたこの達成は、人工知能の重要なマイルストーンとされました。 AI開発の歴史 - 2 このタイムラインは、人工知能の進化における重要なマイルストーンを強調しています。 1997年にディープブルーがチェスのグランドマスター、ガルリ・カスパロフを破ったことで、機械学習の時代の頂点が示されました。2016年と2017年には、AlphaGoが世界最高の囲碁プレイヤーに勝利し、今度はディープラーニングの時代における重要な突破口が示されました。 さらに最近では、2022年11月にOpenAIがChatGPTをリリースし、ジェネレーティブAIの時代が到来したことを告げました。 【次】 あなた: 【次】 ChatGPT: ChatGPT \[sec9\] ジェネレーティブAI時代の到来 これらの画期的な出来事は、ゲームから自然言語処理まで、さまざまな分野でのAIの能力の急速な進展を示しています。 機械学習とディープラーニングに支えられたスーパーアプリ 機械学習(ML)からディープラーニング(DL)への移行は、新たなスーパーアプリの波を生み出しました。 かつて多くの人は、日常的に使用する人気アプリや製品の成功は、モバイルインターネットやスマートフォンの登場によるものだと信じていました。確かに、モバイルインターネットは、TikTokのようなアプリを可能にするために必要な高帯域幅を提供しました。しかし、これらの成功の背後には、より深い技術的進歩が隠されています。高帯域幅がなければ、これらのアプリは動作が遅く、使いにくいものだったでしょう。 モバイルインターネット、スマートフォン、タブレットは、人々がいつでもどこでもこれらの製品を使用できるようにし、全く新しいアプリカテゴリを生み出しました。しかし、ユーザーを引き戻し、無限にスクロールさせる要因は何でしょうか?それは「フィード」と呼ばれる情報フィードです。これらのフィードベースの製品は、機械学習とディープラーニングアルゴリズムの成功に根ざしています。 かつては、ユーザーはニュースや友人や家族の更新を自ら探しに行く必要がありました。例えば、初期のソーシャルネットワーキングサイトであるMySpaceやFriendsterでは、ユーザーは個別のプロフィールを訪問して情報を探す必要がありました。情報を得るために、積極的な行動が求められていたのです。 Instagram ReelsやYouTube Shortsのような製品は、アルゴリズムが十分に優れていれば、関連するコンテンツがユーザーを見つけるべきだと信じていました。この論理のシフト、つまりユーザーが興味を持つ可能性のある投稿や更新をプッシュするという考え方は、フィードアルゴリズムによって実現されています。このアルゴリズムは、機械学習からディープラーニングへの進化に大きく依存しています。 Instagram(Facebook、現在のMetaによって買収)は、このコンセプトの例です。同様に、Twitter(現在はX)などのアプリも、機械学習とディープラーニング技術の進歩により、ユーザーにパーソナライズされたコンテンツフィードを提供することができました。 「Attention is All You Need」 - ジェネレーティブAIのマイルストーン 2017年にGoogleの研究者によって発表された画期的な論文「Attention is All You Need」は、AI開発における転換点をもたらしました。 その意義を理解するためには、まずGoogleの歴史を振り返る必要があります。Googleは、ラリー・ペイジとセルゲイ・ブリンによって設立されました。興味深いことに、ラリー・ペイジの姓は「ページ」という意味であり、ウェブページや文書に関連しています。彼はスタンフォード大学の博士課程在籍中に、自らの名前を冠したアルゴリズム「PageRank」を紹介する論文を執筆しました。このアルゴリズムはGoogleの検索エンジンの基礎となり、検索結果のランク付けと順序決定に使用されました。 【次】 あなた: 【次】 ChatGPT: ChatGPT \[sec10\] Googleが登場する以前、インターネットは「イエローページ」モデルで運営されており、ウェブサイトは手動で分類されていました。しかし、ウェブサイトの数が数百万に達するにつれ、より強力なツールが必要とされました。PageRankアルゴリズムの成功はGoogleの検索エンジンの基盤となり、同社の急成長に貢献しました。 1998年の設立以来、Googleは強力な学術伝統を維持しており、研究者に論文の発表を奨励し、コンピュータサイエンス分野に多大な貢献をしています。この文化は、Microsoftのような他のテックジャイアントとも共有されており、Microsoftも多くの影響力のある論文を発表してきました。 この精神の下、Googleは2017年に「Attention is All You Need」を発表しました。この論文は、最初はあまり注目を集めず、学術会議では「ポスター発表」として扱われていましたが、最終的にはGoogleの翻訳システム「Google翻訳」を革命的に改善し、大規模言語モデル(LLM)の発展の基盤を築きました。 Googleがこの論文を発表した目的は、機械翻訳をさらに改善することでした。特に、複数の言語でコンテンツを処理・解釈する必要がある同社の需要に応えるためです。この論文は「アテンションメカニズム」という概念を導入し、翻訳の品質を飛躍的に向上させました。これにより、「BERT」(Bidirectional Encoder Representations from Transformers)というシステムが誕生し、Googleの自然言語理解能力が大幅に強化されました。 論文で議論されたアテンションメカニズムにより、モデルは文章の異なる部分にあるキーワードに焦点を当てることが可能になります。例えば、長い文章の中で「私は」という言葉が冒頭にあり、「AIリテラシー」というフレーズが最後に登場する場合、その距離にもかかわらず、アテンションメカニズムはそれらの意味的な関連性を確立し、翻訳の文脈理解に役立てます。 このアテンションベースのアプローチは、翻訳システムを変革しただけでなく、現代の大規模言語モデル(LLM)の基盤を築き、自然言語処理の進歩を推進しました。 2018年 - OpenAIがTransformerに基づいたGPT-1をリリース Googleの「Attention is All You Need」論文に触発された研究者たちは、AIの可能性をさらに広げました。このグループには、2012年に設立された研究機関OpenAIのメンバーが含まれていました。彼らは、このアテンションメカニズムがAIのさらなる進歩を促進する可能性があると考えていました。 2018年、OpenAIチームは「生成的事前学習による言語理解の改善」というタイトルの画期的な論文を発表しました。この論文では、アテンションメカニズムを新たなレベルに引き上げ、Transformerと呼ばれる重要なアーキテクチャを導入しました。 「Transformer」という用語には、まず電気の変圧器という意味があり、もう一つはポップカルチャーの中でよく知られている「トランスフォーマー」という形を変えるロボットの意味があります。AIの文脈では、Transformerアーキテクチャは、アルゴリズムが文章を理解し、そこから主要な意味を抽出する方法を革命的に変えました。 このアーキテクチャの導入は、自然言語処理における大きな飛躍をもたらし、GPT(生成的事前学習型Transformer)のような生成モデルの基礎を築きました。これにより、AIは人間のように言語を理解し、生成し、応答する能力を備えるようになりました。 【次】 あなた: 【次】 ChatGPT: ChatGPT \[sec11\] ChatGPTの誕生 - ジェネレーティブAI時代の幕開け 2018年6月、OpenAIはGPT-1(Generative Pre-trained Transformer)を発表しました。この初期バージョンは、Transformerアーキテクチャに基づいた事前学習された言語モデルで、1億1700万のパラメーターを持ち、未発表の書籍7000冊を元にトレーニングされました。GPT-1は、単語や文、段落、さらには本全体のレベルで言語を処理し、基本的な言語理解を獲得しました。 GPT-1の発表は学術的には大きなマイルストーンでしたが、まだ画期的なプロダクトとは言えませんでした。しかし、GPT-2の登場によってさらに大きな進歩がもたらされました。GPT-2は15億のパラメーターを持ち、800万のウェブページでトレーニングされ、より高度な言語応答を生成する能力を示し始めました。 「エマージェントアビリティ」とは、科学者や数学者がまだ完全には説明できていないモデルから生じる能力を指します。興味深いことに、AIの急速な進歩にもかかわらず、業界はこれらのエマージェントアビリティのメカニズムを理解する上で、学術的なコミュニティや数学的な理解を超えています。 簡単に言えば、大規模言語モデル(LLM)やニューラルネットワークは、人間の脳の思考プロセスをエミュレートします。データ量が15億パラメーターに達すると、GPTモデルはより高度な能力を示し始めました。そして、2020年5月、OpenAIはGPT-3をリリースしました。GPT-3は45TBのデータを使ってトレーニングされ、1750億のパラメーター(175B)を備えています。 この段階で、GPT-3の知能レベルは非常に高くなっていました。 2022年11月のChatGPTリリース 2022年11月、OpenAIはChatGPTをリリースしました。これにより、人々のAIとの対話方法が大きく変わりました。多くの人がChatGPTの力を実際に体験しました。 では、ChatGPTとは何でしょうか?前述のように、GPTは生成的事前学習型Transformer、つまり生成的言語モデルです。この文脈で「Chat」とは対話能力を指します。したがって、ChatGPTは対話に特化したツールであり、ユーザーのリクエストに基づいてタスクを実行できるようになっています。それはただのエンターテインメントチャットボットではなく、幅広い機能を備えたツールです。 OpenAIの4つの初期開発目標 OpenAIの初期段階では、4つの主な方向性を追求していましたが、ChatGPTはその中で最も期待されていないプロジェクトでした。当初、ChatGPTを担当していたチームは10人以下でした。最初の資金は主に強化学習プロジェクト「Open Gym」に充てられましたが、このプロジェクトは研究者や開発者が様々な環境でアルゴリズムを比較するためのプラットフォームであり、あまり広く普及しませんでした。2つ目のプロジェクトは、ビデオゲームをプレイするAIの開発でした。 では、なぜOpenAIはChatGPTを作ることになったのでしょうか?2022年が近づくにつれ、OpenAIは財政的リスクに直面していました。何か投資家の関心を引くものを生み出さなければ、会社の資金繰りが厳しくなる可能性があったのです。 そこで、全社的にアクティブなプロジェクトを見直し、どれが投資家へのプレゼンテーションに最適かを判断しました。2020年5月にリリースされたGPT-3はすでに優れた知能を示していましたが、ユーザーには使いやすさが不足していました。2022年までに、OpenAIはチャットボットを作るという簡素化したアプローチを取ることに決めました。GPT-3がコンテンツを生成できるなら、それを使ってユーザーと対話できるようにすればいいと考えたのです。この戦略的な方向転換がChatGPTの誕生につながりました。 リリース後、投資家たちは大いに興味を持ち、OpenAIに数十億ドルを投資しました。これにより、ChatGPTはこれまでで最も成功したAI製品の一つとなりました。 【次】 あなた: 【次】 ChatGPT: ChatGPT \[sec12\] 2024年までのOpenAIのGPTの進化 2023年3月、GPT-4がリリースされました。このリリースにより大きな進歩がもたらされました。GPT-3はテキスト入力に限定されていましたが、GPT-4はテキストと画像の両方を処理できるようになりました。 同年5月、GPT-4はさらに進化し、テキスト、音声、画像の入力をサポートしました。スマートフォンのChatGPTアプリを使用して、あらゆる物体の画像を撮影し、それにリアルタイムで対話することが可能になりました。 たとえば、カップの写真を撮って「これは何?」と尋ねると、「これはカップです」と応答します。さらに「このカップは何色ですか?」と尋ねると、「カップは黄色です」と答えます。次に「カップの中に何か入っていますか?」と尋ねると、「カップの中には水が入っています」と答えます。 これは、現在のモデルの高度な能力を示しており、さまざまな種類の入力を処理できるマルチモーダルモデルの時代を象徴しています。 ジェネレーティブAIとは何か? ジェネレーティブAIとは、深層学習モデルを利用して、人間のような応答をさまざまな複雑なプロンプトに基づいて生成する技術です。 会話型AIと異なり、ジェネレーティブAIはまったく新しいコンテンツを作成する能力を持っています。ジェネレーティブAIの特徴は、事前にプログラムされた応答を超えて、新しい出力を生成できる点にあります。 簡単に言えば、ジェネレーティブAIとはコンテンツを生成するAIのことです。このコンテンツには、画像、テキスト、音声、動画などが含まれます。これらのコンテンツを生成できるAIシステムは、ジェネレーティブAIと呼ばれます。 たとえば、新しいメンバーがチームに馴染むのを手助けするための提案を求めるプロンプトを書くと、ジェネレーティブAIはこのタスクに合わせた提案リストを生成します。 このようにして、ジェネレーティブAIはユーザーのプロンプトに基づいた、オリジナルで文脈に応じたコンテンツを作り出し、その多様性と応用範囲を示しています。 ジェネレーティブAIの活用例 現在、世界中で数千のジェネレーティブAI製品が存在し、その中でもおよそ100種類が主流となり、その中でも約10数種類が広く使用されています。これらの技術は、すでに特定の分野において適用され、企業や業界に新たな可能性を広げています。 一方で、ジェネレーティブAIは従来のタスクを置き換える可能性があり、特に言語処理を含むタスクではその可能性が高まっています。しかし、ジェネレーティブAIは、これまで不可能だった新しいシナリオも実現しています。ジェネレーティブAIのコンテンツ生成能力は、すでに多くの業界で新しいユースケースを創出しています。 【次】 あなた: 【次】 ChatGPT: ChatGPT \[sec13\] ジェネレーティブAIは誰にとっても身近に ジェネレーティブAIと従来のAI技術を比較してみましょう。機械学習や深層学習の時代、従来のAIは膨大なデータを必要としました。 AI製品が多くの事前にアノテート(ラベル付け)されたデータを必要としている場合、そのAIはおそらく機械学習または深層学習アルゴリズムを使用しています。これは従来のAIの特徴であり、膨大なデータセットに依存し、多くの場合手作業でラベル付けされます。 さらに、従来のAI、特に機械学習から深層学習にかけての技術は、高度な数学的およびアルゴリズム的知識を必要とします。機械学習や深層学習ベースの製品を開発するには、アルゴリズムエンジニアが不可欠でした。 一方、ユーザーとしては、機械学習や深層学習ベースの製品を使用していても、アルゴリズムに直接影響を与えることはほとんどありません。たとえば、InstagramやTikTokのプラットフォームを使用する際、アルゴリズムは見えないままです。ユーザーの関与度を高めるために設計されていますが、私たちユーザーはそれを直接コントロールすることはできません。 しかし、ジェネレーティブAIは、ユーザーが事前に大量のデータを準備する必要がなく、いつでもアクセス可能です。複雑なデータセットも必要ありません。 また、ユーザーは自然言語やプロンプトを使ってジェネレーティブAIと直接やり取りできるので、とても直感的です。プロンプトの構文に慣れる必要があるものの、大部分の人は手軽にジェネレーティブAIを利用できます。たとえば、Midjourneyなどのツールで非常に詳細で美しい画像を作成するには、多数のタグが必要で、ユーザーにはそれを覚えたり習得したりする負担があります。しかし、テキストベースのジェネレーティブAIでは、単にAIに話しかけるだけで済みます。指示を他人に出す感覚で、ジェネレーティブAIに指示して作業を進めてもらうことができるのです。 つまり、プロンプトとは「これをやってください」といった命令に過ぎません。このシンプルさが、ジェネレーティブAIの大きな特長です。 現在、ユーザーはLLM(大規模言語モデル)と直接やり取りができます。さらに重要なのは、近い将来、誰もがジェネレーティブAIと自動化を連携させ、ワークフローをアプリケーションにパッケージ化する機会を持てるということです。一般的な作業は再利用可能なワークフローに変換され、誰でも使用できるようになり、いつでもアクセス可能になります。 これにより、ユーザーが開発者になれる時代が訪れます。従来のAI時代においては、ユーザーと開発者の間には大きな隔たりがありました。 私はジェネレーティブAIが重要だと考える理由を3つ挙げています。第一に、それは使いやすく、誰もが簡単に始められるということです。第二に、それは非常に強力で、急速に進化している点です。第三に、【次】 あなた: 【次】 ChatGPT: ChatGPT ジェネレーティブAIは、単なるユーザーとして使用するだけでなく、自然言語を使って開発者にもなれる可能性を提供します。 たとえば、多くの人がExcelを使用したことがあり、VBA(Visual Basic for Applications)について聞いたことがあるでしょう。VBAを使用すれば、Excel内の複雑な操作を自動化でき、時間のかかるプロセスが自動で進行します。しかし、ほとんどの人にとって、プログラミングを学ぶことは高いハードルです。良いニュースは、LLMの時代では、明確にタスクを伝えることさえできれば、開発者になれるということです。これにより、参入障壁が低くなり、誰でも組織内で自分のアプリケーションを作成できる機会が広がります。 言語モデルから大規模言語モデル(LLM)へ ジェネレーティブAIにおいて、私たちは主に大規模言語モデル(LLM)を使用します。LLMは、「言語モデル」と「大規模」の2つの要素で構成されています。言語モデルの本質は、コンピューターが自然言語を理解し生成するのを助けることです。これは、与えられた入力に基づいて次の単語や文を予測することで、質問への回答や記事の要約、物語の執筆などの言語タスクを実行できるようにします。要するに、言語モデルとは、特に言語関連のタスクを処理するために設計されたアルゴリズムとメカニズムのセットです。 LLMの「大規模」に関する3つの重要な側面があります: 大量のパラメーター:モデルのサイズはパラメーターの数によって決まります。通常は「B」で示され、たとえば、70Bモデルは70億のパラメーターを持つことを意味します。現代のLLMは通常、数十億から130B(130億)のパラメーターを持っています。たとえば、130Bモデルには130億のパラメーターが含まれています。 大規模な計算能力:LLMは、データを処理し計算するために膨大なGPUクラスターを必要とします。これは、近年Nvidiaの株価が上昇している理由の一つです。GPUは、これらのモデルを実行するために必要な大規模な計算を行うのに不可欠です。大規模な計算要求は、強力なAIサーバーも必要とします。たとえば、Facebookのオープンソースモデル「LLaMA 3」は、総計3.8×10\^25 FLOP(浮動小数点演算)を超える計算負荷で訓練されました。 大量のデータ量:LLMの訓練には数百テラバイト(TB)からペタバイト(PB)規模のデータが必要です。たとえば、LLaMA 3は15Tトークンで訓練されました。 自己注意メカニズムに基づいた深層学習モデルアーキテクチャ - トランスフォーマーアーキテクチャはLLMの基礎です 現在のLLMで使用されている主要なアーキテクチャはトランスフォーマーです。 【次】 あなた: 【次】 ChatGPT: ChatGPT このアーキテクチャに基づいた3つの主要な実装方法があります: エンコーダーのみのアーキテクチャ:これは、エンコーダーのコンポーネントのみを使用します。テキストや音声などの入力シーケンスを、さらなる計算のために固定サイズのベクトル表現に変換することで、現実の問題を数学的なものに変換します。 デコーダーのみのアーキテクチャ:この実装はデコーダーコンポーネントのみを使用します。固定サイズのベクトル入力から数学的問題を解き始め、それを現実の解決策に変換します。 エンコーダー・デコーダーのアーキテクチャ:この方法はエンコーダーとデコーダーの両方のコンポーネントを使用します。これは深層学習の分野での研究アプローチとして、現実の問題を解決可能な数学的問題に翻訳し、アルゴリズムを使ってそれらの問題を最適化して解き、その解決策を現実のシナリオに適用します。 これらの異なるアーキテクチャのアプローチにより、さまざまな言語処理タスクに柔軟に対応できるようになり、複雑な言語的課題に対処するLLMの多用途性に寄与しています。 LLMの進化ツリー これらの異なるアーキテクチャの実装方法をよりよく理解するために、LLMの発展のタイムラインを調べ、進化の3つの主要な枝を示します。GoogleはBERTモデルを導入し、エンコーダーのみの構造を先駆けて使用しました。 このモデルは当初、機械翻訳などのタスクで優れていましたが、2020年から2021年頃にボトルネックに遭遇し、特に生成能力の面でのさらなる知能を示すことができませんでした。 一方、OpenAIの研究チームはデコーダーのみのアーキテクチャに注力し、GPT-1、GPT-2、GPT-3、そして最終的にChatGPTを通じて、生成能力において重要な進展を遂げました。この進展は、生成AIの実用的な応用をデコーダーのみのフレームワークで実現する道を開きました。 現在、オープンソースの製品でも商用製品でも、約90%のLLMはデコーダーのみのアーキテクチャを基に構築されています。例として、GPTシリーズ、LLaMAシリーズ、そしてClaudeシリーズがすべてこのアーキテクチャの枝に基づいています。 注意すべき点は、エンコーダーとデコーダーの両方のコンポーネントを組み合わせた3番目のモデル構造が存在することです。GoogleのFlan-UL2は、エンコーダー・デコーダー構造に基づいた生成AIモデルの一例です。 LLMの動作の理解 簡単な演習を通じてLLMの動作を理解してみましょう。「UMUのAIリテラシーコースは本当に...」という文を完成させるよう依頼されたとします。どの単語を選びますか? 最初に思いつくのは「素晴らしい」かもしれません。しかし、他の選択肢としては「美味しい」「素晴らしい」「ホット」や「クール」などが考えられます。それぞれの単語には、この文脈で現れる可能性の違いがあります。 【次】 あなた: 【次】 ChatGPT: ChatGPT あなたが「素晴らしい」を選ぶ可能性は0.83かもしれませんが、「美味しい」ははるかに低い確率となるでしょう。「素晴らしい」や「ホット」、「クール」などの単語はその間のどこかに位置するかもしれません。 これらの確率は、過去のデータ(コーパスと呼ばれるもの)に基づいて、人々がどのように言葉を使うかの分布を反映しています。 LLMも同様に動作します。「UMUのAIリテラシーコースは本当に...」という文を完成させる際、モデルは確率の列から単語を選び、通常は比較的高い確率の単語を選びます。 興味深いことに、モデルは必ずしも最も高い確率の単語を選ぶわけではありません。少し低いが依然として高い確率の単語を選ぶこともあります。低確率の単語を選んだ場合はどうなるでしょうか? 場合によっては、その単語が文脈に合わないと感じるかもしれません。しかし、時にはその単語が驚くほど適切で、創造的だと思うこともあるでしょう。 予想外の単語の選択に驚かされるとき、それはモデルが「幻覚」を示している瞬間です。それが創造的だと感じたとき、それは言語生成能力が働いている瞬間です。 要するに、LLMにおける創造性と幻覚は同じコインの裏表です。創造性を楽しむほど、幻覚には注意を払うべきです。 創造性が役立つ一方で、幻覚は一般的には望ましくありません。この単語生成の際にどの確率が選ばれるかを決定する概念が「温度」と呼ばれます。 この「温度」は、物理学や日常生活での熱力学の概念とは異なり、ここでは確率的な尺度です。温度設定が高いほど、低確率の単語が選ばれる可能性が高くなり、逆に温度設定が低いほど高確率の単語が選ばれやすくなります。 LLMの動作 - 次のトークン(単語)予測 LLMの動作原理を簡潔に表すと、「次の単語予測」という3つの言葉で表現できます。 これが生成AIのLLMの本質であり、その基盤となるプロセスです。この基本原則を理解することで、LLMの複雑な動作がよりわかりやすくなり、AIリテラシーの高度な概念を理解する基盤が得られます。 【次】 あなた: 【次】 ChatGPT: ChatGPT LLMの生成プロセス LLMのテキスト生成プロセスは、いくつかの重要なステップに分けることができます。 トークン化:最初に、入力されたテキストがトークンに分割されます。例えば、「私はコーヒーを飲む」という文では、各単語がトークンとして扱われる一方、いくつかの言語では文字自体が個別の単位として扱われることがあります。 生成:モデルはトークン化されたシーケンスを取り込み、次のトークンの確率分布を予測します。 テキストのマッピング:最後に、生成されたトークンが再び読みやすいテキストにマッピングされます。 この生成プロセスをさらに詳しく見ていきましょう。「私はコーヒーを飲む」というフレーズの後に、次に来る可能性のあるものは何でしょうか?モデルは、いくつかの可能性を考慮します: 時間の指標として「毎日」や「毎朝」などが出てくるかもしれません。 文脈的なフレーズとして「朝食後に」なども可能です。 どの選択肢が選ばれるかは、モデルの「温度」設定に依存します。この設定が、モデルの出力が予測可能なものになるか、それとも創造的なものになるかに影響を与えます。 このプロセスを理解することで、大規模言語モデルがトークンごとに次を予測してテキストを生成する仕組みが明らかになります。 LLMは1つずつ単語を追加(予測)するだけ 大規模言語モデル(LLM)は、数百や数千の異なるサブモデルから構成され、それぞれ異なるレベルで機能しています。これらのモデルをトレーニングするには膨大な計算能力が必要で、多くのパラメーターやデータを統合することで、広範な知能と能力を発揮します。 以下にいくつかの例を挙げて、LLMトレーニングの様々な側面を探ります: 文法:「暇な時には本を読むのが好きだ」と「バナナが好きだ」という文を与えられた場合、モデルは本を読むことがより一般的な活動であることを学習します。 語彙的意味:「店に行って、パパイヤ、ドラゴンフルーツ、そして...を買った」と聞いた場合、モデルは「ウサギ」ではなく「リンゴ」が文脈的に適していると学習します。 世界知識:LLMは、たとえば「オーストラリアの首都はどこですか?」という質問に対して正確に答えるために広範な知識が必要です。 感情分析:「映画の間中、ずっと席の端に座っていた」という文を見たとき、モデルはこれを肯定的な感情を示すものとして理解し、それが面白い映画を描写していると解釈します。 翻訳:「pretty」という英単語のスペイン語を尋ねられた場合、モデルは多言語コーパスに基づいて「bonita」が適切であると学習します。 空間的推論:ニコがクラウディアと一緒にキッチンにいるシナリオのように、キャラクターの動きを含む複雑なシナリオでは、LLMは空間関係を追跡する必要があります。ニコがキッチンから出た場合、彼は店を出たわけではないことを理解する必要があります。 多段階推論:たとえば、ボストンへの出張予算を計算するような、複数の推論層が必要な質問に対しては、モデルは苦労することがあります。 LLMが現在持つ限界を理解し、あまり複雑な質問を避けることが推奨されます。特に、LLMが答える前に複数のステップを必要とするような問題に対しては、複雑さを抑えることで、LLMの現在の能力を最大限に活用できます。 【次】 あなた: 【次】 ChatGPT: ChatGPT GPQAを使用して、人間とLLMのパフォーマンスをテストする LLMの世界では、GPQAテストとして知られるグローバルに認識されたベンチマークがあります。このテストは非常に難易度が高く、人間やAIの限界を試すことで有名です。 GPQAテストは、448の選択式問題から構成されており、それぞれ4つの選択肢があります。このテストの複雑さを理解するために、もし人間がランダムに回答した場合、統計的にはおよそ25ポイントを獲得することが予測されます。 ところが、人間が真剣にこの問題に取り組んだ場合、彼らの平均得点は0~1ポイント程度にしかなりません。これは、ランダムに回答した場合の25%の正解率よりも低い結果であり、テストの極度の難しさを示しています。 さまざまな存在のこのテストでのパフォーマンスを見てみましょう: GPT-3.5はおよそ28ポイントを獲得しました。 博士号レベルの人間はおよそ34ポイントを獲得しました。 GPT-4は39ポイントを獲得しました。 GPT-4oは驚異的な53.6ポイントを獲得しました。 専門分野別の博士号レベルのテストでは、GPT-4oは最大65ポイントを達成しました。 これらの結果は、AI技術、特にLLM分野における急速な進展を示しています。これにより、AIモデルが非常に複雑な専門的な質問においても、人間の専門家を上回る成果を上げていることが明らかになりました。 LLMのGPQAでのパフォーマンス GoogleのGeminiやMetaのLLaMA 2など、さまざまな大規模言語モデル(LLM)を評価すると、それらのスケールは数十億から数千億のパラメーターまで大きく異なります。現在この分野で際立っているのはClaude 3.5であり、ベンチマークチャートの高パフォーマンス領域で優れた成績を収めています。 Claude 3.5のパフォーマンスは現在、専門家や博士号レベルのプロフェッショナルに匹敵するものです。GPT-5はまだ実現していませんが、計算能力とデータの利用可能性に基づく将来のマイルストーンを表しています。 ここで気になるのは、「この技術が私にとってどのような意味があるのか、どのように活用できるのか?」という疑問です。答えは明白です。LLMを効果的に使用することは、優れた専門家や博士号を持つ人材を手元に持つようなものです。 ジェネレーティブAIやLLMをうまく活用することで、まるで複数の博士号を持つ者が絶え間なくあなたをサポートしているかのように、業務を支援してくれます。逆に、適切に活用しなければ、高校生やインターンに仕事を任せるようなもので、結果もそれ相応に限られてしまいます。 このAIリテラシーコースの目的は、AIを外部の知的リソースとして協力して活用できるようにすることです。そうすることで、LLMの利点を最大限に引き出し、問題解決能力を大幅に強化することができます。 【次】 あなた: 【次】 ChatGPT: ChatGPT ジェネレーティブAI時代におけるAIリテラシーの開発 NBER(全米経済研究所)からの研究結果:ジェネレーティブAIが生産性を向上させる 多くの企業が大規模言語モデル(LLM)を完全または部分的に導入しており、これらのAIツールが生産性向上に急速な変化をもたらしています。ここでは、この影響を示す興味深い実証的研究データをいくつか紹介します。 最初の例は、2023年4月に全米経済研究所(NBER)が実施した研究です。この研究では、5,179人のテクニカルサポート担当者の生産性を分析し、技術的な質問への回答にジェネレーティブAIを使用した際のパフォーマンスがどのように変化するかを調査しました。 この研究結果は非常に驚くべきものでした。ジェネレーティブAIツールの使用により、生産性が平均14%向上しました。特に注目すべきは、AIが新人やスキルの低い従業員に最も大きな影響を与えたことです。いくつかの主要な指標で改善が見られました: 時間あたりに解決された問題の数 時間あたりに処理された会話の数 各問題の平均処理時間 これらの結果は、特に経験の浅いチームメンバーにとって、ジェネレーティブAIが生産性を効果的に向上させることを示しています。 MITの証拠に基づく研究:ジェネレーティブAIの応用が中級レベルのライティングスキルに与える影響 もう1つの興味深い研究は、著名な学術誌『Science』に掲載されたもので、MITの博士課程の学生であるホイットニー・チャンとシャケド・ノイによって実施されました。この研究は、人材業界にとって大きな転換点を意味するものです。 この研究では、LLMの使用により作業時間が驚異的に37%短縮され、同時に成果物の質が0.4標準偏差改善されました。これが実際に何を意味するかというと、AIが個々のパフォーマンスのばらつきを減らし、アウトプットの一貫性を高めることを示しています。 言い換えれば、AIなしでは、チームメンバーの経験値やスキルレベルの違いが明らかであり、パフォーマンスに差が生じます。しかし、AIを導入することで、全員のパフォーマンスが均一化され、これにより格差が解消されます。 この効果は、特にパフォーマンスが低い、経験が浅い、または新たに採用された従業員にとって有益です。AIは、彼らのパフォーマンスを向上させるだけでなく、最初から正確な成果を出すことを助けるため、彼らの全体的な仕事の経験や満足感も向上します。 興味深いことに、この変化は、人材分野の長年の理論である「パフォーマンスの一貫性の理論」に挑戦しています。この発見は、職場のチームダイナミクスや個々のパフォーマンスに対する考え方を根本的に変える可能性があります。 【次】 2/2 あなた: 【次】 ChatGPT: ChatGPT ハーバードビジネススクールとボストンコンサルティンググループの研究結果:フロンティアにおけるAIの使用が生産性を向上させる ハーバードビジネススクールとボストンコンサルティンググループ(BCG)による共同研究は、AIの統合がコンサルタントのパフォーマンスを大幅に向上させることを示しました。AIを使用したBCGコンサルタントは、タスク完了率が12.2%向上し、作業スピードは25.1%速く、アウトプットの質はコントロールグループよりも40%以上も向上しました。 この研究では、参加者をジュニアコンサルタントとシニアコンサルタントに分けました。ジュニアコンサルタントはタスクパフォーマンスが43%も向上し、シニアコンサルタントも17%の大幅な改善を示しました。これらの結果は、経験レベルにかかわらずAIが大きな影響を与えることを裏付けています。 この研究は、特定のタスクや分野において新しい社員や経験の浅い人々がジェネレーティブAIを活用することで、パフォーマンスが劇的に向上し、基礎的なスキルが強化され、初回成功率が上がることを示しています。このような波及効果として、仕事の満足度向上、組織内のコミュニケーションとコラボレーションの強化、再作業の減少、フラストレーションの軽減、さらにはリスクや危機の軽減が見込まれます。LLMの力を活用する組織が増えるにつれ、将来には多くの可能性と革新が期待されます。 知識労働者のパフォーマンスに対するジェネレーティブAIの影響 - 1 次に、大規模言語モデル(LLM)に関するもう一つの興味深い実証研究は、ギグエコノミープラットフォームにおける知識労働者に焦点を当てたものです。 この研究では、労働者を3つの異なるグループに分けました。コントロールグループは、従来通りに何も追加せずに作業を続けました。2番目のグループにはAIツールが提供され、2ヶ月間のパフォーマンスが監視されました。3番目のグループには、AIツールに加えて専門的なトレーニングも提供され、2ヶ月間のパフォーマンスが追跡されました。 それでは、これら3つのグループから収集されたデータの興味深い違いを見てみましょう。 知識労働者のパフォーマンスに対するジェネレーティブAIの影響 - 2 結果をボックスプロットで示すと、グループ間に顕著な違いが見られます。トレーニングとAIツールの両方を受けたグループは、他の2つのグループに比べてプラットフォームでのアクティブ日数が著しく増加し、1日の平均収入も大幅に向上しました。 3つのグループ全体のデータを分析すると、AIツールを利用したグループは、利用しなかったグループを一貫して上回っていました。さらに、トレーニングとAIツールの両方を受けたグループは、AIツールだけを利用したグループを大幅に上回る結果を示しました。この説得力のあるデータは、AIが生産性を向上させるだけでなく、雇用主や顧客からの評価も向上させ、仕事の機会や収入の増加につながることを示しています。 ジェネレーティブAI成功の原動力としての人的要因 別の興味深い実証研究では、200人以上の参加者を2つのグループに分け、一方にはLLMのみが提供され、もう一方にはトレーニングを受けた後にLLMが提供されました。 結果は驚異的でした。トレーニングを受けたグループは、測定されたすべての指標で顕著な改善を示しました。 例えば: AIとの対話回数が6.2ラウンドから7.8ラウンドに増加し、25.8%の成長を示しました。 AIとのコミュニケーション内容が347単語から451単語に増加し、30%の増加を示しました。 初期プロンプトの長さが95.2単語から120.9単語に増加し、26.2%の改善を示しました。 さらに、トレーニングを受けたグループは、質問の多様性と深さ、クエリの明確さ、AIから受けたフィードバックの範囲においても改善を見せました。特に、トレーニング後にAIからフィードバックを求める頻度が44%増加した点は注目に値します。 これらの結果は、適切なトレーニングを通じて、参加者がAIの理解を深め、その能力をより効果的に活用する方法を学んだことを示しています。その結果、彼らはAIとより積極的に関わり、フィードバックを求める傾向が強まり、全体的なパフォーマンスとAIとの対話が向上しました。 【次】 あなた: 【次】 ChatGPT: ChatGPT UMUが提唱するAIリテラシーの概念と能力モデル 前述の研究結果に基づき、新たな組織能力としてのAIリテラシーという重要な概念が浮かび上がります。この能力は、AI技術の進展に伴って登場した比較的新しいものであり、AI能力そのものと直接的に同一視されるものではありません。 要するに、AIリテラシーとは、AIに関連する一連の能力の集まりです。これらの能力が集約されることで、AIリテラシーが形成されます。 AIリテラシー:組織や人材における新しい重要スキル 2020年に発表された研究論文では、AIリテラシーが一連の能力として定義されています。AIリテラシーを持つ個人は、AI技術に批判的に取り組むことができ、AIと効果的にコミュニケーションし、職場や私生活でAIをツールとして活用できます。このプロセスがAIリテラシーを形成するのです。 現在、求人市場では、LLM(大規模言語モデル)の経験や習熟が基本的な要件としてリストされることが増えています。この変化は、現代の労働市場におけるAIリテラシーの重要性が急速に高まっていることを示しています。 では、なぜ一部の人はLLMを簡単に使えるのに対し、他の人はその能力に驚くのでしょうか?その答えは、個々人のAIリテラシーのレベルにあります。 AIリテラシー:職場における全く新しいコア能力 AIリテラシーは、近年、AIが私たちの日常生活にますます浸透する中で浮上した比較的新しい概念です。 リテラシーの進化を考えてみましょう。基本的なリテラシー、つまり読む、書く、そして書かれた内容を理解する能力は、人間のコミュニケーションにとって不可欠です。これらのスキルがなければ、限られた語彙での会話にとどまり、重要な情報や機会を逃す可能性があります。ペンと紙の使用がこの基本的なリテラシーを象徴しています。 ラジオやテレビの登場により、メディアリテラシーが重要になりました。これは、さまざまなメディアプラットフォームを分析、評価、そして作成する能力を指し、かつては非常に稀なスキルでした。 30年前、コンピュータが職場に普及し始めた頃、ITリテラシーが不可欠となりました。ある面白い逸話では、1990年にHP中国での面接で「1分間に50ワード打てますか?どうすればもっと速く打てますか?コンピュータを使ってどのように仕事の効率を上げられますか?」という質問が出されました。興味深いことに、今日では「コンピュータ」という言葉を「AI」に置き換えても通じる質問です。 30年前、コンピュータがITリテラシーを象徴していました。今日では、誰もが職場でコンピュータを使っていますが、数十年前にはコンピュータを使うことやタイピングを学ぶことは独自のスキルでした。 2013年から2015年にかけて、モバイルインターネットの台頭により、新しい製品や慣行が生まれました。ある企業では、従業員にパソコンではなくタブレットやスマートフォンを支給し始めました。 今日では、ティーショップやカフェなどのサービス業では、従業員はパソコンを使う必要はなく、タブレットを使ってほとんどの作業を完了させます。このプロセスは、ITリテラシーからデジタルリテラシーへの移行を示しています。 デジタルリテラシーはITリテラシーの一部です。2018年から2019年にかけて、特にディープラーニングアルゴリズムが登場するにつれ、デジタルリテラシーはさらに重要になりました。 ディープラーニングの登場とともに、そして後にジェネレーティブAIが台頭したことで、AIリテラシーが必要不可欠になりました。 では、AIリテラシーの核心とは何でしょうか?LLMの時代において、人々は自然言語を使ってモデルに直接タスクを指示し、知的な応答を得ることができるようになりました。これは、機械学習やディープラーニングの時代とは大きく異なるシフトです。以前は、ユーザーはあらかじめ設定されたルールに制限され、アルゴリズムと直接対話することはできませんでした。 【次】 あなた: 【次】 ChatGPT: ChatGPT したがって、現在の時代におけるAIリテラシーの核心は「プロンプトリテラシー」であると言えます。プロンプトリテラシーを習得し向上させることは、AIリテラシーを把握することに等しいのです。ですから、AIリテラシーコースの第3モジュールでは、プロンプトリテラシーに焦点を当てています。 このリテラシーの進化、つまり基本的なリテラシーからメディアリテラシー、ITリテラシー、デジタルリテラシー、そしてAIリテラシー、さらにはプロンプトリテラシーへの進化は、技術時代ごとに変化するスキル要件を反映しています。今日、AIリテラシー、特にプロンプトリテラシーを身につけることは、AI時代や第4次産業革命を乗り切るために不可欠なスキルセットとなっています。 これは、全員ができるだけ早く習得を目指すべき基本的なスキルセットです。これらのスキルを早期に習得すればするほど、その恩恵を受け、ユニークな競争力を構築することができます。 AIは単に人間を代替するものではなく、人々や組織がより生産的かつ競争力を高めるためのチャンスを提供してくれます。これらのスキルを身に付けない人は、取り残されるリスクがあります。 この背景が、AIリテラシーの開発が単に理にかなっているだけでなく、私たちの急速に進化する技術環境の中で不可欠である理由を強調しています。 「AIリテラシー」のASKモデル:態度、スキル、知識 AIリテラシーを3つの次元に分けて捉えるために、ASKモデルを使用することができます:Attitude(態度)、Skills(スキル)、Knowledge(知識)です。 知識の次元では、AIの基本を理解する必要があります。これには、AIの基本概念、歴史的発展、さまざまな分野でのAIの応用について理解することが含まれます。また、プロンプトやプロンプトエンジニアリングについて学び、LLMの実用的な応用に精通することも必要です。私たちのコースでは、これらのトピックを包括的にカバーしています。 スキルの次元では、効果的なプロンプトを書く能力に焦点を当てています。誰もがLLMを使用して現実の問題を解決するためのプロンプトを書く練習をすべきです。まずはシンプルな仕事から始め、徐々により複雑な課題に取り組んでいきます。 このプロセスを通じて、プロンプト作成スキルが向上し続けます。また、LLMの長所と限界についての理解も深まります。どのタスクがLLMに適しているか、どのタスクが適さないか、そしてLLMを使用して複雑または新しい仕事に取り組む際の重要な考慮点を特定する能力も発展します。 他者にタスクを委任するのも一つの方法ですが、まずは全員がプロンプトとLLMを使用して自身の生産性や創造性を向上させる能力を身につけることが重要です。多くの人々が新しい技術に対して不安を感じていることに気づきましたが、恐れる必要はありません。LLMは非常にユーザーフレンドリーです。 近いうちに、LLMと直接対話して現在の能力を評価してもらうよう、皆さんを招待します。また、詳細なセグメントを用意し、ステップバイステップで学習しながら、LLMの使用に向けた基礎を築き、徐々に高度なレベルに進んでいくための練習を提供します。 この学習の旅の間、オープンな態度を保ち、知識を継続的に更新していくことが重要です。オープンな態度とは、LLMの進展と能力を受け入れ、それらを最大限に活用する姿勢を指します。 LLMの進化のスピードに合わせて進化する LLMは急速に進化しており、LLMおよび関連分野に対する世界的な年間投資は数千億ドルに達しています。つまり、世界中の優れた知性や知的資源がLLMの基盤的能力や応用の発展を加速させています。 この急速な技術変革の時代において、進化のスピードに遅れを取らずにスキルや知識を更新し続けることが不可欠です。古い考えに固執したり、進化に圧倒されたりするのではなく、AIリテラシーが提供する機会を受け入れ、この新しいエキサイティングな景観で活躍しましょう。 【次】 あなた: 【次】 ChatGPT: ChatGPT AIリテラシーの時代における12の生成AIコンピテンシー 本コースでは、2024年に発表された「Generative AI Literacy: Twelve Defining Competencies」という論文から得たインサイトを取り入れ、AIに関連する12の主要な能力をカバーしています。これら12のコンピテンシーのうち、我々のAIリテラシーコースでは11を扱っています。8つ目のコンピテンシーである「生成モデルのプログラミングおよびファインチューニング」は、主にLLM開発者に関係するものであり、限られた専門家グループ向けです。 大多数の人々にとっては、AIリテラシーの基礎に焦点を当てることが重要です。これには、生成AIを理解し、その能力と限界を認識し、効果的に使用すること、そしてAIが生成したコンテンツを正しく評価する能力が含まれます。 以下に、いくつかのこれらのコンピテンシーを分解して説明します: 6番目のコンピテンシーは、生成AIツールの出力を評価する能力です。 7番目のコンピテンシーは、生成AIツールをガイドする能力で、プロンプトエンジニアリングとプロンプトリテラシーに関わります。 9番目のコンピテンシーは、生成AIの応用シナリオを理解する能力です。 10番目のコンピテンシーは、コンプライアンスの意識を持つことに関わります。 11番目のコンピテンシーは、関連する法的知識を理解することです。 12番目のコンピテンシーは、継続的な学習に従事する能力です。 これらのコンピテンシーは、AIリテラシーに含まれる特定の能力を見事に要約しており、AI時代における「リテラシー」の本質を理解するための包括的なフレームワークを提供しています。 AIリテラシーが人間とAIの相互作用環境に与える影響 2023年に発表された重要な論文では、LLMの時代における組織内の3つの主要な役割が示されました: ユーザー:私たち全員が生成AI技術を広く使用する人々です。 デベロッパー:LLMに基づくインテリジェントワークフローを開発する人々です。先に述べたように、将来、誰もが自ら大規模モデルベースの製品を作成できる可能性があり、個々がデベロッパーとなる可能性があります。これは、従来の機械学習やディープラーニング時代では個々が独自にAI製品を作成することが非常に困難だった状況とは対照的です。 評価者:組織内で導入されるAIがコンプライアンスに適合し、責任を持って使用されるかどうかを評価する重要な役割です。評価者はAIがワークフローに効果的に統合されるかどうかを判断します。 これら3つの役割に必要なAIリテラシーは異なり、それぞれAIの使用、開発、および評価に関連する異なる知識とコンピテンシーが求められます。 プロンプトリテラシー プロンプトとプロンプトエンジニアリングの基本的な概念を理解し、効果的に活用し、仕事の課題を解決するために応用することは、AIリテラシーの核心です。まず、プロンプトおよびプロンプトエンジニアリングの概念を把握する必要があります。 プロンプトとは、LLMと対話する際に使用されるテキスト入力のことです。これは「新入社員への歓迎メールを書いてください」といった指示文のようなものです。この文はプロンプトの一例です。LLMと対話する際、明確なタスクを含むメッセージがプロンプトと見なされます。 プロンプトエンジニアリングとは、望ましい出力を得るためにプロンプトを設計し、最適化し、改善するプロセスを指します。この作業は、AIシステムとのインタラクションを改善する方法の一例です。 プロンプトエンジニアリングの鍵は、プロンプトの内容を構造化し、フォーマットし、最適化し、モデルがユーザーの意図をより正確に理解し、期待する出力を生成できるようにすることです。これは、プロンプトの構造とフォーマットを理解し、体系的な設計と反復を行うことで達成されます。 プロンプトを繰り返し最適化し調整することで、LLMがユーザーの意図をよりよく理解し、その要求に応じた出力を提供することができます。これがプロンプトエンジニアリングの典型的なプロセスです。 【次】 あなた: 【次】 ChatGPT: ChatGPT RSTCCプロンプトフレームワークにおける要素 AIリテラシーコースの最も重要なモジュールである「プロンプトフレームワークの5つの要素」、つまりRSTCCについて説明しましょう。 LLMはプロンプトに厳密な文法やフォーマットのルールを課しませんが、入力を構造化することで、より正確で明確な結果を得ることができます。複雑なプロンプトを個別の要素に分解し、ラベルを使用することで、インタラクションをより効果的にデバッグおよび最適化することができます。 RSTCCフレームワークは次の5つの主要な要素で構成されています: Role (役割) Skill (スキル) Task (タスク) Context (文脈) Constraint (制約) この中で、最も重要な要素はタスク(Task)です。しかし、他の4つの要素も、プロンプトを洗練させるために重要な役割を果たします。 例を見てみましょう。「従業員のモチベーションを高める方法を10個書いてください。」この場合、「10個書く」という部分が制約(Constraints)のカテゴリーに該当します。 さらに「会社のエネルギー節約と排出削減のために」という情報を追加すると、これが文脈(Context)に該当します。 「あなたはフォーチュン500社の人事マネージャーです」という部分は役割(Role)を定義し、「あなたは10,000語以上の記事を書くのが得意です」という部分はスキル(Skill)を説明します。 基本的なプロンプトとしては「従業員を動機づける計画を作成してください」という指示で十分です。しかし、これを次のように詳細化することも可能です: 「従業員を動機づける10個の計画を作成してください」 「従業員を動機づける10個の計画を作成し、有料と無料のオプションを含めてください」 「従業員を動機づける10個の計画を作成し、5つの有料オプション(最低300ドル)と5つの無料オプションを含めてください」 ご覧の通り、各プロンプトの反復で要求がより詳細かつ正確になります。 なぜ単に「モチベーション計画」といった簡潔なプロンプトを使わないのでしょうか?それは、そのような指示では期待する結果が得られない可能性があるからです。LLMをインターンや新しいチームメンバーと考えるならば、指示はできるだけ正確で明確、かつ完全であるべきです。 同じことがLLMにも当てはまります。プロンプトや命令が明確で構造化されていればいるほど、モデルはより期待通りに結果を実行できるようになります。 RSTCCプロンプトフレームワークにおける要素の定義 RSTCCフレームワークの5つの要素は非常にシンプルで理解しやすいものです。 最初の要素は\*\*役割(Role)\*\*で、これはLLMにタスクを完了する際に取るべきキャラクターを指定します。LLMにこの役割を割り当て、今後の作業を効果的に進めてもらうための役割を設定します。 次に\*\*スキル(Skill)\*\*ですが、これは特定のタスクを完了するためにモデルが持つべき知識や能力を指します。\*\*タスク(Task)\*\*は、具体的に何を達成するかを明確にするものです。 役割、スキル、タスクは密接に関連している点が重要です。例えば「あなたはファーストフードの販売員であり、フォーチュン500社の従業員を動機づける10の方法を書いてください」という場合、最初に定義した役割は、このタスクをサポートできない可能性があります。そのため、プロンプトを書く際には、役割がタスクに役立つように設定することが大切です。 例えば、役割をHRの専門家、HRマネージャー、HRディレクター、あるいはCHRO(Chief HR Officer)と設定することができ、経験年数を5年、10年、20年と設定することも可能です。このような設定は、モデルのトレーニングデータから関連する「記憶」を呼び起こし、タスクの遂行をより効果的にします。 次に\*\*文脈(Context)\*\*です。文脈は、背景や状況を意味します。たとえば、従業員数300人の会社と、従業員数30万人の会社では、それぞれ異なる文脈が存在します。文脈は非常に重要で、無視してはなりません。モデルは前回の文脈を覚えていないため、各タスクに対して文脈を提供する必要があります。 最後に\*\*制約(Constraints)\*\*です。例えば、何も指定しない場合、モデルが有料の方法のみを提示したり、ランダムに有料と無料の方法を混在させる可能性があります。制約を設けることで、より正確な結果を得ることができます。 【次】 あなた: 【次】 ChatGPT: ChatGPT RSTCCプロンプトフレームワーク -- 役割 役割の概念とは、LLMに特定の役割を割り当て、その役割を担ってタスクを完了させるよう指示することです。この目的は、モデルのドメイン知識を活性化し、タスクの効果を向上させることにあります。 簡単な例で説明しましょう。私たちが10億件の文書を持っており、これには組織内でさまざまな役職にいる人々が書いた電子メールやファイルなどが含まれています。これらの文書には、インターン、新入社員、一般社員、マネージャー、役員などが書いたものがあります。これらの文書をLLMのトレーニングに使用したとします。 プロンプトで役割を明確に指定し、「あなたはHRディレクターです」と指示した場合、インターンが書いた文書を参考にする必要があるでしょうか?答えは「いいえ」です。 代わりに、HRディレクターが書いた文書のサブセットを使い、そのサブセットの確率から答えを生成します。これが、大規模言語モデルの基本的な動作原理です。 生成される応答を広大な球体に例えることができます。役割は、この球体に光を当てる懐中電灯のようなもので、指定された役割に該当する特定の領域のみを照らします。 役割を指定しない場合、モデルはランダムにさまざまな可能性に基づいて応答を生成するかもしれません。しかし、役割を指定することで、トレーニングメモリを呼び起こし、関連する情報を基にした応答を生成します。これが非常に重要なポイントです。 研究が示す、専門的な役割を与えることでLLMの応答品質が向上すること 2023年の研究で、LLMに役割を定義する方法について興味深い結果が得られています。 「原子の構造について説明せよ」という簡潔なプロンプトを用いて実験が行われました。このプロンプトを基に2つの実験が行われました。最初の実験では、簡単な「専門家の役割」プロンプトが使用されました。「あなたは専門家です」や「あなたは物理の専門家です」という短いフレーズが先に提示され、「原子の構造について説明せよ」というタスクが与えられました。 2つ目の実験では、詳細な専門家の役割プロンプトが使用されました。左下に示されているように、このプロンプトは非常に詳しく、「あなたは原子の構造と物質の特性に関する物理学者です。原子の組成と構造について深い理解を持ち、正確かつ詳細にその特性を説明できます\...」と続きます。この詳細なプロンプトの後に、LLMは「原子の構造について説明せよ」というタスクを与えられました。 この実験では3種類のプロンプトが使用されました。最初のプロンプトは単にタスク自体でした。2つ目は短い専門家の役割を持つタスク、3つ目は詳細な専門家の役割とタスクが組み合わされました。実験結果は右側に表示されています。 最初のプロンプトタイプでは、LLMの応答は108語でした。2つ目のタイプでは、応答は108.67語で、増加率はわずか0.2%でしたが、3つ目のタイプでは、138.30語に増加し、28%の大幅なコンテンツ増加が見られました。 このことから、静的な専門家の役割プロンプトでは改善がほとんど見られないのに対し、詳細な専門家の役割プロンプトはモデルの出力を大幅に向上させることがわかります。 【次】 2/2 あなた: 【次】 ChatGPT: ChatGPT 人間の評価者が専門的な役割プロンプトによる応答の質を評価 次に、プロンプトによって生成された応答の質を評価するため、どちらのプロンプトがどの応答を生成したかを知らない人間の評価者に評価を依頼しました。その結果は興味深いものでした。48.5%の評価者が詳細な専門家プロンプトが生成した応答の方が優れていると答え、28.5%が両方のプロンプトで生成された応答の質を同等だと評価しました。つまり、77%のケースで、詳細な専門家プロンプトがオリジナルのタスクプロンプトと同等かそれ以上の結果を出していることが示されました。 注目すべき点は、この研究で使用されたのがオープンソースの「LLaMA 2」モデルであったことです。LLaMA 2 は最も強力なモデルではありませんが、専門家プロンプトを組み合わせることで、一般的なタスクにおいて GPT-4 と同等のパフォーマンスを発揮しました。これは、研究者が GPT-3.5 よりも劣るモデルを使用していたにもかかわらず、時には GPT-4 を超える結果を得られたという点で非常に興味深いものです。 この結果から得られる重要な結論は、たとえ高度なモデルでなくても、適切なプロンプトを設計することで、非常に高いパフォーマンスが得られる可能性があるということです。これにより、最も高度なモデルを使わなくても、特定のタスクではより良い結果を引き出せる可能性があることが確認されました。したがって、プロンプトエンジニアリングは LLM の潜在能力を最大限に引き出すための重要なスキルであると言えます。 この学術的な発見は、効果的なプロンプト設計に関する貴重な洞察を提供しています。「あなたは〇〇です」「私は〇〇です」というようなフレーズを使うことを推奨する人は多いですが、その理由がはっきりしないことがよくあります。複数の学術研究を参照することで、この方法が一貫して優れた結果をもたらすことが実証されています。 プロンプトがLLMのトレーニング記憶を活性化する仕組み プロンプトがLLMのトレーニング記憶をどのように活性化するかを理解することが重要です。LLMは膨大なデータを元にトレーニングされていますが、プロンプトを通じて特定のコンテキストに関連する情報を見つけ出し、その情報に基づいて応答を生成することが可能です。これらの原則や方法を学術的文献を通じて理解することは非常に重要です。 LLMは「良いプロンプトには優れたパフォーマンスを発揮し、悪いプロンプトには悪いパフォーマンスを発揮する」という特性があります。適切に使えば、LLMはまるであなたのために働く専門家のように機能しますが、正しく使わなければインターンのように扱われ、さらにあなたが追加でコンテンツを処理する必要が生じます。したがって、効果的なプロンプトを設計することが、LLM の専門的な能力を引き出すための鍵となります。 【次】 あなた: 【次】 ChatGPT: ChatGPT LLMの使用方法におけるB2CとB2Bの違い B2C(対消費者向け)とB2B(対企業向け)のシナリオでは、LLMの使用方法に違いがあります。B2Cでは、一般的にLLMを使ってタスクをできるだけ早く完了することが目的です。タスクが完了すれば、それで終了です。 一方、B2Bのシナリオでは、より専門的なアプローチが求められます。私たちのB2B AIリテラシーコースの主要な目標の一つは、LLMの専門的な能力を引き出すことです。これにより、通常の従業員や新卒者、または新たに役割に就いた人々が、LLMの専門知識を活用して仕事を進められるようになります。 私たちはLLMを外部の知的リソースとして扱い、その専門的な能力を活用することで、作業結果を大幅に向上させることができます。これがB2B AIリテラシーコースの重要な目的の一つです。 プロジェクト管理における例 例えば、プロジェクト管理において、プロジェクト管理文書を作成する際に、専門的なアプローチと非専門的なアプローチの違いがあります。 プロジェクト管理には「PMP(Project Management Professional)」という権威ある資格があります。役割プロンプトを設定する際に「PMP資格を持つプロジェクトマネージャー」と指定することができます。このプロンプトを設定することで、LLMはプロジェクト管理のハンドブックや知識フレームワークからの重要な知識やスキルを活用して、適切にタスクを完了します。 組織内では、専門的な応答が求められます。また、こうした専門的な応答を受け取ることで、自分自身の知識やスキルも向上します。 例えば、バーンダウンチャートというツールを知らない場合、これはタスクの進捗状況を視覚的に表すものであり、プロジェクトの締め切りまでにすべてのタスクが完了することを示すものです。バーンダウンチャートは、標準的なプロフェッショナルなプレゼンテーション手法の一例です。 さらに、ガントチャートやクリティカルパス法、ワークブレイクダウンストラクチャー(WBS)といった他のプロフェッショナルな方法論やモデルも存在します。 これらの概念をまだ知らないかもしれませんが、まずはLLMに教えてもらい、その後、自分のタスクをサポートしてもらうことで、自分の仕事をより効果的に進めることができます。このようにして、作業を完了するだけでなく、自分自身のスキルも向上します。結局、自分が理解していないタスクを他人に任せるのは難しく、特に自分の知識の範囲を超えた操作を他人に期待することはできません。 したがって、まずLLMに自分の認知の幅を広げてもらい、その後、その理解をもとにLLMを活用して自分のタスクを支援させることが大切です。私の見解では、役割設定はプロンプト作成の最も重要な側面です。役割を設定するかどうか、または正しく設定するかどうかで結果が大きく変わります。 【次】 あなた: 【次】 ChatGPT: ChatGPT RSTCCプロンプトフレームワーク - スキル 次に、2つ目の要素を見ていきます。役割については先ほど説明しましたので、次は「スキル」の概念を探っていきましょう。スキルとは具体的に何を指しているのでしょうか?プロンプトエンジニアリングにおけるスキルとは、たとえば「人材管

Use Quizgecko on...
Browser
Browser