AIの活用には、業界を超えた積極的なガードレールが必要だ

AI Use Desperately Needs Proactive Guardrails Across Industries

国土安全保障省の元指揮官Michael Chertoffは、AIには深刻なリスクがあり、企業はその利用を管理・監視するためのデータ主導のフレームワークを開発すべきだと言う。

組織は、データ、情報開示、意思決定の3つのアプローチを用いて、ガードレールの実装方法を検討することが不可欠である。データについては、その正確性と所有者の同意なしに画面スクレイピングされたデータかどうかなど、データを使用する法的権利を確保することの両方に焦点を当てるべきである。

「AI規制の秋」到来、論点ずらしに動く巨大テック企業

「AI規制の秋」到来、論点ずらしに動く巨大テック企業

「ちょっとしたミスディレクション(注意を別のところに向かせるテクニック)のトリックが起きています」と、エングラー特別研究員は言う。監視やプライバシー、差別的なアルゴリズムなど、AIに関する問題の多くは、今まさに私たちに影響を及ぼしている。しかし、テック企業は、遠い未来に大規模なAIモデルが巨大なリスクをもたらすという物語によって、議論の方向をそらしていると、エングラー特別研究員は付け加える。

AIに特化したテクノロジー企業は「底辺への競争」に陥っているとMIT教授が警告

AI-focused tech firms locked in ‘race to the bottom’, warns MIT professor

さらに、世界的に合意された安全基準が満たされるまでは、開発の中断が必要だと付け加えた。

Metaは最近、Llama 2と呼ばれるオープンソースの大規模な言語モデルを公開したが、英国のある専門家は、このような動きは「核爆弾を作るためのテンプレートを人々に与える」ようなものだと警告した。

Inflection AI共同創業者ムスタファ・スレイマン氏「選挙でのAI利用を今すぐ禁止せよ」

Inflection AI co-founder Mustafa Suleyman: 'Ban the use of AI in elections–right now'

ムスタファ・スレイマン氏はInflection AIの共同設立者兼CEOで、Googleに買収されたDeepMindを共同設立した人

私が恐れているのは、AIがディープフェイクや、知識ある有権者や消費者さえも感情的に操作され、的を絞った適応性のある誤報によって、情報空間を蝕んでしまうことだ

明確な政治的目的はなくても、テクノロジーは権力の一形態である。そして、初期のツールから今日のソーシャルメディアや生成AIの世界に至るまで、テクノロジーは大きな社会的・政治的影響を持ってきた。 歴史の中で、この事実に真摯に取り組んできた技術者はあまりにも少ない。