" "

責任あるAI

AI

「責任あるAI」は、適切に実行されれば、単にリスクを低減するだけにとどまりません。AIシステムのパフォーマンスを向上させ、信頼を高め、導入を促進しつつ価値を創出します。私たちは、企業が責任あるAIのカスタマイズしたフレームワークを開発し運用可能にするお手伝いをします。

新たな規制や生成AIによりAIテクノロジーはさらなる注目を浴びていますが、暗い影が落とされているとは限りません。責任あるAIはリスク緩和だけにとどまらず、重要な価値創出の要素でもあるというのが、BCGの考え方です。AIの誤りを抑制するのと同じ仕組みにより、イノベーションを加速し、差別化を促進し、顧客の信頼を高めることができます。


責任あるAIとは何か

責任あるAIとは、組織のパーパス(存在意義)や倫理的価値に沿ったAIシステムを開発・運用し、革新的なビジネス成果を実現するプロセスです。企業は責任あるAIを戦略的に実装することで、AIの展開や投資にまつわる複雑な倫理的問題を解決し、イノベーションを加速し、AI自体からより高い価値を実現できます。責任あるAIにより、リーダーはこの強力な新興テクノロジーを適切にマネジメントする能力を得られます。

Unlocking Value Through Responsible AI Commitments

The experiences of a hypothetical company illustrate how ensuring responsible AI practices can address challenges and create new opportunities.

Learn more about BCG X

 

BCGは責任あるAIの実装をどのように支援するか

これまでのところ、責任あるAIに対するこのような戦略的アプローチを導入している企業は比較的少数です。取り組みの遅れの原因は何でしょうか。責任あるAIという志から実行までの飛躍が非常に険しいことがわかったという組織もあります。規制がどのような形を取るか、雲行きを見ている組織もあります。しかし、責任あるAIの原則によって企業は新しいルールと最新の新興AIテクノロジーへの準備を整えることができるため、すぐに恩恵がもたらされる可能性があります。

BCGの歴戦のフレームワークによって、責任あるAIへの成熟度向上にかかる時間を最小限に抑えつつ、責任あるAIが創出できる価値を最大限に高めることができます。これは5つの柱に基づいており、各組織の独自の出発点やカルチャーに合わせてカスタマイズされます。

「責任あるAI」戦略

AIガバナンス

カギとなるプロセス

テクノロジーとツール

カルチャー

責任あるAIに関するBCGのクライアント支援事例

BCGの「責任あるAI」領域のコンサルタントは、多くの業界で世界各地の組織と協働し、AIの透明性と価値をもたらすパーソナライズされたソリューションをつくり出しています。その取り組みの一端をご紹介します。


「責任あるAI」領域におけるBCGの受賞歴

BCGは、AIガバナンスに関するリーディング・コンサルティングファームの1つとして、責任あるAIを進展させ、AIテクノロジーのより広範で透明性の高い活用に向けた土台を構築する私たちの取り組みの卓越性が評価されていることを誇りに思います。

  • 2022年、Responsible AI Institute RAISE AwardsにおいてFinalist for Leading Enterprise受賞。BCGは、RAISE 2022 Leading Enterprise Awardにノミネートされ、入賞しました。この賞は、責任あるAIの実装におけるギャップを縮小させ、この領域の現況に関する重要な対話に向けたスペースを創出する優れた取り組みについて、組織を評価するものです。
  • Top 100 Most Influential People in Data、 DataIQ、2022年。BCGのスティーブン・ミルズは、責任あるAI、および、バイアスのかかったAIシステムに起因する予期せぬ悪影響に関する取り組みが評価され、DataIQによるTop 100 Most Influential People in Dataのひとりに選出されました。
  • Outstanding Achievement in the Field of AI Ethics nominee、CogX Awards、2021年。BCGのスティーブン・ミルズは、2021 CogX AwardsのAI倫理領域カテゴリーにおいて顕著な功績を挙げた者としてノミネートされました。これは、変化し続けるテクノロジー環境において人間の価値を保護するための企業または個人の対応策について評価するものです。

責任あるAIに関するBCGのツールとソリューション

BCGの「責任あるAI」領域のコンサルタントは、BCGの業界エキスパートとテクノロジー・エキスパートのグローバル・ネットワークを活用できます。さらに、責任あるAIの実装に向けた強力なツールも利用できます。

「責任あるAI」成熟度評価

MIT SMRとBCGの最新の調査で収集されたデータに基づくこの独自ツールは、責任あるAIの5 つの柱にわたり企業のベンチマークを行い、強み、ギャップ、注力すべき領域についての示唆を提供します。

GAMMA FACET

AIの透明性は、信頼を構築し、導入を推進する上できわめて重要です。しかし、AIは意思決定プロセスを説明せずに結果を生成する「ブラックボックス」になりうるため、透明性を実現するのは難しい場合が多いのです。FACETは、人間のオペレーターが高度な機械学習モデルを理解できるよう支援することでこのブラックボックスを開きます。


責任あるAIについて今知っておくべき3つのこと

AUGUST 10, 2023—The recent voluntary commitments secured by the White House from core US developers of advanced AI systems—including Google, OpenAI, Amazon, and Meta—is an important first step toward achieving safe, secure, and trustworthy AI. Here are three observations:

  • These voluntary commitments will help to move the AI ecosystem in the right direction. They can be a foundation for putting the Blueprint for an AI Bill of Rights into operation and bringing together more actors under a shared banner to ultimately make responsible AI the norm. The commitments also can trigger greater investment in training, capacity building, and technological solutions.
  • Supportive initiatives like the Frontier Model Forum, which includes the developers who made the voluntary commitments, will enable AI ecosystem stakeholders to exchange knowledge on best practices for responsible AI, particularly for advanced systems. Given that tech companies’ recent layoffs included some trust and safety experts, a renewed commitment to auditing and analysis through public release will help external expertise fill internal capacity shortages. Rigorous documentation in the form of audit reports and disclosures will help agencies such as the Federal Trade Commission protect consumers from deceptive and unfair practices.
  • Notably missing from the commitments is a focus on mitigating the potentially significant environmental impacts of AI systems. Details on when and how these commitments will be operationalized are also needed to boost public trust, especially given the many ethical issues recently raised by AI. Bipartisan legislation would increase the impact of the voluntary commitments.

Abhishek Gupta
Senior Solution Delivery Manager, Responsible AI
Montreal

APRIL 27, 2023—Generative AI continues to evolve with extraordinary speed. Innovators are racing to address the technology’s shortcomings even as new risks continue to emerge, highlighting the need for stronger AI governance. A few developments:

  • While generative AI models are becoming more complex, there have also been significant improvements in safety and alignment. OpenAI’s GPT-4, for instance, has reduced hallucination and is better at avoiding hate speech and controversial topics. It also follows prompts better, creating more accurate navigation to arrive at the user’s desired result. This enables use cases that have a lower tolerance for errors and deviations—for example, these models perform better in convergent-thinking type scenarios, in which there’s usually a single correct response.
  • ChatGPT plugins—a new technological feature—can address some shortcomings of previous models. The Wolfram Alpha plugin, for example, improves mathematical reasoning. Essentially, ChatGPT now has its own computer, allowing it to provide more tailored and grounded answers. Plugins also improve the tool’s utility to certain domains—the accuracy of travel-related information, for instance, will improve with a new Expedia plugin. Hallucinations can also be reduced by using task-specific plugins rather than generalized tools.
  • New risks are being discovered, though. Prompt injection attacks, for example, leverage latent weaknesses for which we don’t yet have good protections. Due to capability overhang—hidden skills that may not even be known to generative AI developers—such risks won’t disappear soon. Investments in responsible AI will be required to help us confidently explore new use cases while enhancing safety.

Abhishek Gupta
Senior Solution Delivery Manager, Responsible AI
Montreal

APRIL 11, 2023—Stanford’s Human-Centered Artificial Intelligence group has issued a timely report that underscores why responsible AI (RAI) practices should be high on CEOs’ agendas. A few of the key takeaways:

  • Misuse of AI is rapidly increasing. The number of AI incidents and controversies annually has risen 26 times since 2012, according to the AI Incident Database, which tracks ethical misuse of AI. The report attributed this growth to both greater AI use and greater public awareness of misuse. This means organizations are at higher risk whether they buy or build AI systems. RAI practices can help identify these risks and fix them.
  • AI is gaining attention from policymakers. The Stanford analysis of legislative records in 127 countries found that 37 bills containing “artificial intelligence” passed in 2022—compared with 1 in 2016. According to an analysis of parliamentary records in 81 countries, mentions of AI in legislative proceedings have increased more than sixfold since 2016. With regulatory pressures likely to grow, companies must actively engage with regulators and other stakeholders to help shape policies that are technologically effective and feasible.
  • Private AI investment is falling. Annual global private investment in AI dropped by 27% in 2022, to $91.9 billion. That was the first decrease in a decade. The number of AI-related funding events and newly funded AI companies also declined. Limited funding means teams must demonstrate that AI investments generate returns. By helping mitigate failures early, RAI can help boost returns across the AI lifecycle.

Abhishek Gupta
Senior Solution Delivery Manager, Responsible AI
Montreal

MARCH 23, 2023—There’s lots of talk about the risks of generative AI. What’s not getting discussed enough is how organizations are adopting itNow that anyone can use tools like ChatGPT in their workflows, unreported “shadow AI” may be taking place that bypasses risk and safety governance mechanisms.

Instead of banning generative AI systems, which is not a long-term solution, here are three things you can do to support experimentation while promoting safe and responsible AI.:

  • Install a front door. All requests for using generative AI systems should go through an API gateway that provides access. This front door helps ensure responsible AI by tracking how it is used, filtering and sanitizing sensitive information, and blocking toxic inputs or outputs. 
  • Establish enforceable policies. Develop guidelines on using generative AI and capture them in policy to make them enforceable. Communicate those policies to all staff and establish a rapid and agile review process for use cases. This will enable people experimenting with generative AI to bring cases to a committee, ask questions, and get feedback. 
  • Purchase enterprise licenses for generative AI systems. Rather than using a generic system without knowing what it does with the data, license tools and services offered by companies like OpenAI, Microsoft Azure, Cohere, and Hugging Face that enable organizations to use generative AI in a structured manner. This can protect your data and give you the ability to fine-tune the systems to meet specific needs.

Abhishek Gupta
Senior Solution Delivery Manager, Responsible AI
Montreal

BCGのAIに関する行動規範、最近の論考など

BCGでは倫理、誠実さをきわめて重視しており、責任あるAIの使用は私たちのアプローチの必須要件です。私たちは私たちの業界におけるAIの倫理規範を設定することをめざします。また、クライアントが経済、倫理の両面で適切な意思決定を行う組織能力を構築できるよう支援します。

詳細はこちら

 

AI倫理 エキスパート

BCGの「責任あるAI」領域のコンサルタントはソートリーダーであると同時にチームリーダーでもあり、クライアントと現場で協働して責任あるAIのジャーニーを加速化させます。この領域のエキスパートの一部をご紹介します。

Tech + Us: Monthly insights for harnessing the full potential of AI and tech.