起きる 10:00
家を出る 10:50
秋葉原の BiTO AKIBA 4Fにある
大戸屋でお昼ご飯。
ちなみに注文はタブレット。
大戸屋ランチ単品とご飯。
1190円
セットだと味噌汁や漬物がつくため塩分が高くなってしまうので、
単品にしました。(高血圧)
秋葉原の大戸屋、
広いし、混んでないので穴場ですな、
今後のお昼はここにします。
食後、有楽町の国際ビルまで。
■授業前半 AI最新動向
講師はソニーグループ株式会社の小林さん
ソニーに入社して25年
▼ノーベル賞がAI関連に与えられた。
▼2022年以降、各種生成AIの急速な発展が大きな話題に
Midjourney
ChatGPT
Runway Gen-3
▼最新研究動向:生成AIのマルチモーダル化・汎用化・AIエージェント
・シングルモーダルAI→テキストのみ(受動的AI)
・マルチモーダルマルチタスクAI→画像や音など(AIエージェント)
▼最近のAIニュースピックアップ
・数学用AI :AlphtProof&Geometry(Jul.2024)
・ゲーム用AI:GameGen AI Online(Sep.2024)
・コンピューターのスクリーンキャプチャを使う:Computer Use(OCT.2024)
さらなる性能向上やマルチモーダル化により大きく汎用性を向上させた
▼研究レベルの生成AIの急速な実用化と今後の発展予想
実証実験から実用までのスピードが速い
▼継続するAIの大規模化と急速な性能向上トレンド
AIは大規模化により青天井に性能を向上できる
→とにかくメモリを増やそう
https://epoch.ai/data/notable-ai-models
▼底コスト化・高速化トレンド
画像生成
同等以上のパフォーマンスを達成するために必要なコストもまた急速に低下
▼AIの一般への普及、日常業務へのさらなる浸透
18-64歳の11%が生成AIを毎日利用
GitHubの2023年のBlogによると、GitHubCopilot活用により開発者のプログラミングタスク完了速度が55%向上したとの報告
10月29日、GoogleのPichai氏の記事によると
Googleのすべての新しいコードの4分の1以上がAIによって生成され、エンジニアによってレビューおよび承認されている
https://blog.google/inside-google/message-ceo/alphabet
誰もが日常的に徹底活用して当然の技術になりつつある
▼AIの発展を牽引する数々のドライバ
・スケール則
・世界的大規模投資の加速
計算資源の潤沢化
・AI関連研究開発者の増加
・AIによるAI研究開発のさらなる加速
諸々の事情により、今後もAIの性能の急速な向上はほぼ確実
▼AIの限界はどこにあるのか?
・2015年頃:「AIが認識性能で人を超えても、アートでは人に勝てない」
→多くのアマチュアを上回る品質の画像生成が実現された
・2017年頃:「AIがプロ棋士に勝利できるのは、人の棋譜が存在するからこそ。ひとたびルールが変わってしまえばAIは人間に勝てなくなる」
→翌年2018年には棋譜ゼロからの自己学習でプロ棋士を上回るように
・2018年頃まで:「画像や音声の認識領域では人を超えつつあるが、自然言語領域では人間との性能に大きな開き」
・2019年には人と区別がつかない文章を生成する自然言語モデルが危険すぎると話題に
「AIは画像や音声など特定のデータを扱うのは得意だが、人のように複数の情報を統合的に扱うことはできない」
→文章や画像・映像を統合的に扱うテクニックが多数登場
・「AIで高性能を得るためには膨大なラベル付きデータが必要、人のように柔軟に様々なタスクに対応することはできない」
大量の生データからのみの学習する自己教師あり学習・自らの体験を通じて成長する強化学習の発展最新の自然言語モデルは自然言語による指示により様々なタスクに柔軟に対応
▼Human Centric DesignにおけるAIの活用可能性
ペルソナを生成するサービスは既にある(ちょっとこれは疑問だなー)
▼注目論文
・実在する1,052人への2時間の音声インタビューを元にAIエージェントを生成
・2週間後に参加者とAIエージェントに同じアンケートを実施
・AIエージェントは元の人物の回答を85%の精度で再現できた
(85%じゃダメじゃん)
▼Human Centric DesignÄb0におけるÄb0AIÄb0の活用可能性
壁打ちに使う。
ユーザーテスト
AIエージェントシステムによる自動運用・改良?
▼先端AIの可能にするデザイン
・より高度なPersonalize
・e.g. ユーザや状況に合わせ、都度最適なUIを生成
▼次世代のコンピューティングとしての地位を確立しつつあるAI
Computer
・GUIを通じた簡単操作
・プログラムにより柔軟に機能を追加
・処理の詳細を人で設計する必要がある
・高度な知的処理には限界がある
AI
・GUIに加え、話し言葉や手書きの絵などによる柔軟な指示、操作
・より多くのデータからの学習により高度化
・指示するだけでより簡単かつ柔軟に機能を追加
・人レベルの高度な知的処理を次々実現
▼AIはコンピュータ・インターネットに次ぐより強力な”ツール”
より柔軟で強力なコンピュータ
より自動化された機能を提供するアプリ・サービス
気遣い不要で安価かつ優秀なアシスタント
AIという今後も急速に強力になり続けることが確定的であるツールを先行して積極活用する
▼先端技術を学び能力を拡張し続けることの重要性
→どこまでAIを自分達のものにできるかが個人や企業・業界の命運を分けるだろう
AI最新動向まとめ
AIは現在も人類史上例のない速度で発展を続けている
AIは次世代のコンピュータ。HCD領域においても必須のツールに
AIの活用は簡単。最新のAIを積極的に使ってみるのことで自動的に活用は進む
AI活用を通じ、共により良い世の中を作っていきましょう!
■質疑応答
Q.AIを活用する上での個人情報とバランスを懸念している
例えば会社ではユーザーインタビューのデータをChatGPTに入れるのは禁止されている。
A.この後の講義でがっちりとやります。
Q.プライベートでどうやってAI使えばいいのか。
A.業務で使っている人が圧倒的に多い
一般の人が使うようにならないと市場的に発展しない、まだなっていない。
Q.AIの中の限界について
A.人とかが入るとスローダウンする(例:自動運転)
Q.日本が遅れているのはなぜか(1位はインド)
A. 国民性かも。
AIを使うのを目的にしてもいいんじゃないか
Q.スケール則
規模を上げると品質も上がっていく。
Q.高い品質を目指すと高いデータをインプットする必要があるのでは。
A.教科書的なことを除けば品質は上がっていく。
※2時間の授業かと思っていましたが、
1時間20分で終わりました。
■後半 AI最新動向と倫理的・法的・社会的課題
ということで後半は東京化学大学の鈴木健二さんです。
民間企業にも在籍し、いろんなことをやっているとのことです。
AIによって仕事は増えていると思っている。
■前半1 生成AIがもたらす倫理的・法的・社会的課題
▼倫理的・法的・社会的課題(ELSI)
ELSI =Ethical, Legal, Social Issue
・法的規制を遵守しても、社会はAIを受け入れないことがある。
・法的に規制が難しい分野もある。
▼AIの変遷
生成系AIの発展により、「社会との関係」が重要。
▼生成AIによるリスクの例を挙げてください。
教育学習のリスク
生成AIを使っていけない大学はない。
ただ生成されたものを貼り付けただけではダメ。
ChatGPTのデータの秘匿権は、
オンプレサーバー(会社内のサーバー)で対応する
これだけ使えるものを業務で使わない手はない。
▼(1) 機密情報の漏洩と個人情報の不適正な利用のリスク
・AIとの対話によって機密情報の漏洩のリスク
生成AIが利用者との対話情報を蓄積し、不適切に活用される可能性がある。
・個人情報の不適正な利用とプライバシーの問題
生成AIが利用者の情報を分析し、利用とは無関係な情報を出力する可能性がある
・AI開発者とサービス提供者の責任と取り組み
データの取扱いの開示、透明性の向上が必要であり、信頼性を確認する必要がある。
▼生成AIサービスの利用に関する注意喚起(日本)
(1) 個人情報取扱事業者における注意点
①個人情報取扱事業者が生成 AI サービスに個人情報を含むプロンプトを入力する場合には、特定された当該個人情報の利用目的を達成するために必要な範囲内であることを十分に確認すること.
② 個人情報取扱事業者が, あらかじめ本人の同意を得ることなく生成 AI サービ スに個人データを含むプロンプトを入力し, 当該個人データが当該プロンプトに対する応答結果の出力以外の目的で取り扱われる場合, 当該個人情報取 扱事業者は個人情報保護法の規定に違反することとなる可能性がある. そのため, このようなプロンプトの入力を行う場合には, 当該生成 AI サービスを提供する事業者が, 当該個人データを機械学習に利用しないこと等を十分に 確認すること.
▼OpenAIへの注意喚起(日本)
▼(2) 犯罪の巧妙化・容易化につながるリスク
・生成AIによる巧妙な詐欺手法
低コストで作成された精緻な情報がオレオレ詐欺に悪用される可能性がある。
・生成AIを通じた危険な情報の共有
武器や麻薬の製造方法など、生成系AIを通じて得た情報が犯罪につながる可能性がある。
・対策の必要性と研究の重要性
▼(3) 偽情報等が社会を不安定化・混乱させるリスク
・AIによる偽情報生成の容易さ
AIが本物と見分けがつかない情報を生成することが可能となり、偽情報が増加。
・偽情報による社会の不安定化・混乱
AIが生成した偽情報や誤情報が社会に不当に介入し、民主主義を崩壊させるリスクがある。
▼(4) サイバー攻撃が巧妙化するリスク
・AIを用いた攻撃の巧妙化
生成AIと様々なツールを組み合わせることで、高度な攻撃が可能になる。
・AIをターゲットとした攻撃の増加
AIが弱点となり、新たな攻撃手法が出現する可能性がある。
▼(5) 教育現場における生成AIの扱い
・教育現場の課題
宿題や作文に生成AIを使うと評価や創造力が損なわれる懸念がある。
・生成AIの活用方法
生徒の理解度に合わせた教え方や評価テストの生成、対話的な教育の導入などが可能。
・国民的な関心事
文科省が7月にガイドライン策定し、AIリテラシー教育の必要性も強調。
▼(6) 著作権侵害のリスク
・学習データでの著作権侵害
Webクローリングからの学習データについての権利問題は未解決。
・生成物に0よ3る著作権侵害
著作権侵害は、依拠性と類似性の二要件。AI生成物での議論。
▼AI著作権侵害訴訟の状況
▼(7) AIによって失業者が増えるリスク
・AIの利用拡大による失業のリスク
従来の業務から、文書作成や画像制作なども含めた広範な分野での失業増加の懸念。
・生成AIの登場による専門職への影響
生成AIの活用が専門職にも影響を与え、失業リスクが広がる可能性。
・政府の対応策と必要性
AIの雇用への影響に対し、学びなおしや人材流動化の促進も重要。
■前半2 「プライバシー・バイ・デザイン」
▼データ収集
AIの性能は、データの量と質によって決まる。
-
データ収集の方法
インターネットクローリング、自動車運転走行収集、顧客データ、
公開データ、データ購入、CG・生成AIデータ… -
データの利用条件
個人情報保護法、著作権法、契約、… -
プライバシーへの配慮
個人情報、要配慮個人情報、第三者提供… -
データの前処理
学習用にデータ加工 -
データの偏り(バイアス)への注意
公平性、説明責任、透明性、… -
他との連携
共同開発、業務委託…
▼データの法的性質
✓ 例えば、私の住所というデータは、無体物である。
✓ 私が所有権を有しているわけでもなく、排他性もない。
✓ 提供する際の利用条件を取り決めるに過ぎない。
▼データの種類
・パーソナルデータ
・産業データ
▼パーソナルデータの利活用
▼個人情報保護法
▼要配慮個人情報
個人情報の中には、他人に公開されることで、本人が不当な差別や偏見などの
不利益を被らないようにその取扱いに特に配慮すべき情報がある。
https://www.gov-online.go.jp/useful/article/201703/1.html
▼個人情報や個人データを取り扱うときの基本ルール
▼プライバシー
▼プライバシー保護OECD8原則
-
収集制限の原則(Collection Limitation Principle)
個人情報の収集は、合法的かつ公正な手段によって行われなければならない。
本人の同意がある場合に限り、収集が行われるべきである。 -
データ内容の原則(Data Quality Principle)
収集された個人情報は、利用目的に関連し、正確で完全かつ最新でなければならない。 -
目的明確化の原則(Purpose Specification Principle)
個人情報を収集する際に、その利用目的を特定し明確化する必要がある。
目的外利用は避けるべきである。 -
利用制限の原則(Use Limitation Principle)
個人情報は、収集時に特定された目的以外で利用または提供されてはならない。
本人の同意がある場合や法律で定められた場合は例外とする。 -
安全保護の原則(Security Safeguards Principle)
個人情報は、不正アクセス、改ざん、漏洩、破壊から保護されるために、適切なセキュリティ対策を講じる必要がある。 -
公開の原則(Openness Principle)
個人情報に関する方針、慣行、情報保有の目的などを広く公開し、透明性を確保するべきである。 -
個人参加の原則(Individual Participation Principle)
本人は、自己の情報について以下を行う権利を持つべきである:
自分の情報が保持されているかを確認する権利
自分の情報にアクセスする権利
不正確な情報を修正または削除する権利 -
責任の原則(Accountability Principle)
個人情報を管理する者は、これらの原則を遵守する責任を負うべきである。
▼プライバシー・バイ・デザイン7つの基本原則
https://www.soumu.go.jp/main_content/000196322.pdf
▼Appleのプライバシーに関する原則
https://www.apple.com/jp/privacy/docs/A_Day_in_the_Life_of_Your_Data_J.pdf
■後半1 「ダーク・パターン」
「ダーク・パターン」は、通常オンライン・ユーザー・インターフェースに見られ、消費者
を誘導し、欺き、強要し又は操って、多くの場合、消費者の最善の利益とはならない選択を消
費者に行わせるものである。
▼ダーク・パターンの区分
1.行為の強制
2.インターフェース干渉
3.執拗な繰り返し
4.妨害
5.こっそり(サブスク解除が大変)
6. 社会的証明
7.緊急性
▼1.行為の強制
行為の強制を伴うダーク・パターンは、消費者に対して、特定の機能にアクセスするために、何かを強制的に行わせようとする。
具体的には、消費者は、登録を強制され、若しくはだまされて登録が必要と思わされ、又は、望ましい範囲を超えて、若しくは無料サービスの場合は当該サービスを完全に利用するために必要な範囲を超えて、個人情報の開示を強制されることがある。もう一つの例としては、サービスを利用するために、時には消費者の同意なしで消費者の連絡先に関係する情報を引き出し、使用すること(なりすましスパム又は社会的ピラミッドとして知られている。)がある。
▼2.インターフェース干渉
インターフェース干渉を伴うダーク・パターンは、オンライン事業者にとって好都合な消費者による特定の行為に対して、情報のフレーミングにより特権を与えるもので、フレーミング効果若しくはアンカリング効果又はデフォルトバイアスを悪用する場合がある。
例としては、重要な情報を視覚的に不明瞭にする(隠された情報)、事業者にとって好都合な選択肢のデフォルトによる事前選択、事業者にとって好都合な選択肢に視覚的優位性を持たせ偽りの階層表示を作り出す、誤解を招く又は偽りの高値に対して割引した値段を表示する(不当参照価格)、ひっかけ質問により意図的な又は明らかな曖昧さを持たせる(二重否定など)、偽装広告、及び感情に訴える言葉遣い又はフレーミングにより消費者を操り特定の選択肢を選ばせる(羞恥心の悪用又は感情の弄びとして知られる。)などがある。
▼3.執拗な繰り返し
執拗な繰り返しのダーク・パターンは、通知や位置追跡機能を有効にするなどの事業者にとって好都合な行為を行うよう消費者に繰り返し要請することを伴い、これにより消費者の限られた気力や時間を悪用することがある。
▼4.妨害
妨害関連のダーク・パターンは、ある行為を断念させる意図で、タスクフローやインタラクションを本質的に必要な範囲を超えて困難にすることを目的とし、これにより消費者の惰性又は限られた意志力や時間を悪用することがある。例としては、サービスの登録又はプライバシーを侵害する設定へのオプトインが容易であるが、サービスのキャンセル困難又は比較的プライバシーに配慮した設定のオプトアウト困難の状態がある。同様の例として、クリック疲れ/容易さとは、消費者を誘導して事業者が希望する「単純な」パスを選ばせるために、異なる選択肢に対して異なる長さのクリックパスを作ることをいう。そのほかの例として、アカウント若しくは消費者情報の削除を困難若しくは不可能にすること(しばしば削除不能アカウントと称される。)又は異なるオファー及び価格を比較することを困難若しくは不可
能にすること(価格比較妨害)などがある。
▼5.こっそり
こっそり(スニーキング)のダーク・パターンは、消費者の決定に関わる情報(特に費用に関わるもの)を隠し、偽装し、又は後出しすることを意図するもので、消費者の限られた注意力、デフォルトバイアス、アンカリング効果又はサンクコスト効果を悪用することがある。例として、消費者が購入を完了する直前で、重要性のある非自由選択式の新たな料金を追加すること(ドリッププライシングとしても知られる。)、直前のページ上のチェックボックス経由などで同意なしに商品を消費者の買物かごにこっそり追加すること、又は、消費者の明確な同意なしにトライアル期間後などに自動的に購入が更新されること(つまり隠れ定期購入/定期購入詐
欺。強制的継続としても知られる。)などがある。求めていない財やサービスを消費者に提供することは、より一般的に「押し付け販売」又は「送り付け商法」とも表現される。
▼6.社会的証明
社会的証明を伴うダーク・パターンは、ほかの消費者の行動を観察した結果に基づき決定を行わせることを試みるものであり、これにより社会的証明バイアスを悪用することがある。
例として、ほかの消費者のアクティビティに関する通知、又は最近の買物に関するお客様の声などがある。アクティビティ通知に関しては、過去の買物をあたかも最近行ったものであるかのように虚偽の表示をするなど、事実ではない場合があり、また、お客様の声は、誤解を招く又は虚偽である場合がある。
▼7.緊急性
緊急性を伴うダーク・パターンは、消費者に圧力を掛けて購買を行わせるために、オファーに対して実際の又は虚偽の時間的又は量的な制限を課し、希少性に関する経験則を悪用するものである。したがって、当該ダーク・パターンは、希少性に関するキュー又は希少性のあおりともいわれる。例として、終了間近のオファーや割引を示す在庫わずか/大人気メッセージ又はカウントダウンタイマーなどがある。
■後半2 「自動運転技術」での倫理的・法的課題
▼自動運転
-
人工知能による自動運転技術
認識技術により道路の状況を捉えて、自動車が運転を行う.
→2022年サンフランシスコで無人タクシー
→新東名高速道路無人運転レーン計画
▼倫理学
・功利主義
功利主義は「最大多数の最大幸福」を優先する。 より多くの人が幸せになるべきである。 それは、最善の行動は効用を最大化するものであり、一般的には最大多数の人々の最大の幸福を生み出すものと定義されることを示唆している。 この哲学は結果主義の一形態であり、行動の道徳的価値はその結果によって決まるという意味である。
・義務論
義務論は、結果に関係なく、ルールの重要性と行動に内在する道徳性を強調する。 行動の判断は、道徳的原則に従った義務に従っているかどうかに基づいている。 義務に従っていれば、行動は道徳的に正しいと考える。それは、その行為の結果がどうなるかではなく、その行為自体が道徳的原則に従っているかどうかに焦点を当てている。
▼倫理的ジレンマ
-
倫理学と心理学における一連の思考実験。
-
より多くの人を救うために一人を犠牲にするかどうかという定型化された倫理的ジレンマ。
思考実験
-
AIが解けない問題としてAI倫理では取り上げられる。
-
そもそも、人間ですら解けない問題。
=>AI進展への意義を見出せない議論。
▼トロッコ問題
線路上を走っていたトロッコは制御を失った。このままでは、列車
の前で働いていた5人は、高速で走るトロッコを避ける間もなく、
轢かれて死んでしまう。 このとき、Aさんは線路上の分岐器のすぐ
横にいた。 Aさんがトロッコの進路を変えれば、5人は助かる。し
かし、Bさんは別の路線にいる。 Aさんが進路を変えれば、5人は
助かるが、Bさんはトロッコにひかれて確実に死ぬ。 Aさんはトロッ
コを切り替えて、別の路線に引くべきか。
▼法的解決案
AI法人化
例えば、完全自動運転において、AI自動車を法人化してはどうだろうか。
事故の際に誰にも責任が問えない場合、AI法人に掛けた保険金
で被害者へ損害賠償の支払いをする。
AI法人化の議論は、法的・倫理的・社会的な課題として長期的な視点
が必要。
法人=権利能力を持つ(自然人、会社)
※ChatGPT以外も色々試して使ってみてください。とのことでした。
コメント