\r\n\r\n

機械学習アルゴリズムとは、どのようなもので、どのような仕組みになっているのでしょうか。

機械学習アルゴリズムは、生活を便利にし、システムを改善するために設計されていますが、うまくいかず、望ましくない結果を招くこともあります...。

人工知能と機械学習は、私たちが今日テクノロジー産業で目にする多くの進歩を生み出してきました。しかし、機械はどのようにして学習能力を身につけたのでしょうか?さらに、どのようにして意図しない結果を招いてしまったのか。

ここでは、機械学習のアルゴリズムの仕組みと、機械学習の失敗例について簡単に説明します。

マシンラーニングアルゴリズムは何ですか?

機械学習とは、コンピュータサイエンスの一分野であり、人工知能にタスクを学習する能力を与えることを目的としている。これは、プログラマーが明示的にAIに書かなくとも、これらのことができる能力を開発することです。その代わり、AIはデータを使って自ら学習することができる。

プログラマーは、機械学習アルゴリズムによってこれを実現する。これらのアルゴリズムは、AIの学習動作のベースとなるモデルです。アルゴリズムと学習用データセットを組み合わせることで、AIは学習することができます。

アルゴリズムは通常、人工知能が問題を解決するために使用するモデルを提供する。例えば、猫や犬の画像を認識する方法を学ぶことです。AIは、猫や犬の画像を含むデータセットに、アルゴリズムで構築したモデルを適用します。時間が経つにつれて、AIはより正確に、より簡単に、人間が入力しなくても猫と犬を識別する方法を学習します。

機械学習は、検索エンジン、スマートホーム機器、オンラインサービス、自律型機械などの技術を向上させています。Netflixはどの映画が好きか、音楽ストリーミングサービスはどのプレイリストが好きかを知ることができるのです。

しかし、機械学習は私たちの生活を便利にする一方で、予期せぬ結果をもたらすこともあります。

機械学習エラー 7回

1 Googleの画像検索結果は残念ながら

Google検索のおかげで、ウェブの閲覧がとても楽になりました。エンジンのアルゴリズムは、キーワードや直帰率など、さまざまな要素を考慮して結果を生成しています。しかし、このアルゴリズムはユーザーのトラフィックからも学習するため、検索結果の品質に問題が生じる可能性があります。

それが最も顕著に表れているのが、画像の結果です。アクセス数の多いページほど画像が表示されやすいため、通常、多くのユーザーを集めるストーリー(クリックベイトを含む)が優先されます。

例えば、「南アフリカのシャンティキャンプ」の画像検索結果では、南アフリカの白人が多いことがわかり、物議を醸しました。掘っ立て小屋などのインフォーマル住宅に住む人の大半が、南アフリカの黒人であるという統計があるにもかかわらず、である。

Googleのアルゴリズムに使われている要素は、インターネットユーザーが結果を操作できることも意味しています。例えば、ユーザー主導のキャンペーンにより、「**」と検索するとドナルド・トランプ米大統領の画像が表示されるほど、Googleの画像検索結果に影響を及ぼしたことがあります。

マイクロソフトのロボット2台がナチスに変身

善意の機械学習チャットボットを妨害するTwitterを信じよう。それが、マイクロソフトの今となっては悪名高いチャットボッタイのリリースから1日も経たないうちに起こったのである。

Taiは10代の女の子の話し方を真似て、他のTwitterユーザーと交流しながら学習していきます。しかし、彼女はナチス発言や人種差別を共有するようになり、最も悪名高いAIの失策のひとつとなりました。その結果、荒らしはAIの機械学習を逆手に取り、偏見を含んだやり取りで溢れかえったのです。

その直後、マイクロソフトはTyeを永久にオフラインにした。

iii. 人工知能による顔認証の課題

顔認識AIは、顔認証やプライバシーに関する報道など、悪い意味で話題になることが多い。しかし、このAIが有色人種を識別しようとした場合、大きな懸念を抱かせることにもなりました。

2015年には、Googleフォトが一部の黒人をゴリラに分類していることがユーザーによって発見され、2018年には、Amazonの顔認識ソフトウェアRekognitionが28人の米国下院議員を警察の容疑者として特定し、誤認識が有色人種に不釣り合いな影響を与えていることが米国市民自由連盟(ACLU)の調査によって明らかにされました。

もう一つの事件は、AppleのFace IDソフトウェアが、2人の異なる中国人**を同一人物と誤って認識したことです。その結果、iphonexユーザーの同僚が**のロックを解除することができました。

一方、MITの研究者ジョイ・ブオラムウィニは、顔認識技術の研究をしていたとき、ソフトウェアが自分を認識するためにしばしば白いマスクを着用しなければならなかったと回想している。こうした問題に対処するため、ブオラムウィニをはじめとするIT専門家はこの問題に注目し、AIトレーニングのためのより包括的なデータセットの必要性を提言しています。

4 イタズラ用のフェイク

昔からPhotoshop**を使って画像をいたずらすることはありましたが、機械学習によって新たな次元に到達しています。FaceAppのようなソフトウェアでは、ある動画から別の動画に被写体を切り替えて対面することができます。

しかし、有名人の顔を○○の動画に重ねたり、いたずら動画を生成したりと、さまざまな悪意ある使い方をする人も少なくないようです。一方、ネットユーザーによる技術の向上もあり、本物か偽物かの判別はますます難しくなっている。その結果、この種のAIはフェイクニュースやイタズラを広める上で非常に強力な存在となる。

この技術の力を示すために、監督のジョーダン・ピール氏とBuzzFeed CEOのジョナ・ペレッティ氏**は、バラク・オバマ前米国大統領のPSAを紹介するディープフェイク動画を作成しました。

5 Twitterボットの台頭

Twitterのボットはもともと、ブランドからの○○返信などを自動化するために作られたものです。しかし、この技術は今、大きな不安材料となっている。実際、調査によると、Twitterの4800万人ものユーザーが、実は人工知能を持ったボットであると推定されています。

ボットアカウントの多くは、アルゴリズムを利用して特定のハッシュタグを追跡したり、顧客からの問い合わせに対応したりするのではなく、実在の人物になりすまそうとしている。そして、これらの「人々」は、デマを宣伝し、フェイクニュースを広める手助けをするのです。

Twitterのボットの波は、Brexitや2016年の米国大統領選挙でもある程度世論に影響を与えました。Twitter社自身の告白によると、選挙メッセージを投稿する約5万件のロシア人**ボットが発見されたそうです。

ボットがサービスを苦しめ、噂を広め続けている。この問題は、会社の評価にさえ影響を与えるほど広まっている。

6 従業員がAmazonのAI判定****をより良いと評価

2018年10月、ロイターは、アマゾンがソフトウェアの人工知能が候補者を優先すると判断**し、採用ツールを断念せざるを得なかったと報じた。

匿名希望の社員が、ロイターに自分の仕事ぶりを名乗り出てくれた。開発者は、AIが履歴書に基づいて最適な候補者を特定することを望んでいました。しかし、プロジェクト関係者は、AIが**候補者**を罰したことにすぐ気がついた。彼らは、AIが過去10年間の履歴書を学習データセットとして使用し、そのほとんどが**からのものであると説明しました。

その結果、AIが「**」というキーワードで履歴書をフィルタリングするようになりました。履歴書のキーワードは、「女流将棋部主将」などの活動内容で登場した。開発者は、このペナルティを**レジュームで受けないようにAIを修正したものの、結局アマゾンはこのプロジェクトを断念しました。

7 youtubeに不適切なコンテンツがある

子供向けのYouTubeには、子供を楽しませるために作られた、くだらない、気まぐれな動画がたくさんあります。しかし、同プラットフォームのアルゴリズムを操作するスパム動画にも問題があります。

人気のハッシュタグをもとにした動画です。このようなキーワードを使ったスパムビデオは、幼い子供たちはあまり見る目がないので、何百万人もの視聴者を集めることができます。人工知能がトレンドのハッシュタグをもとに、ストックアニメーションの要素を用いて、これらの動画の一部を自動生成しています。これらのビデオはアニメーション**であるにもかかわらず、そのタイトルはキーワードを詰め込むために特別に生成されています。

これらのキーワードは、YouTubeのアルゴリズムを操作して、おすすめとして表示されるようにするために役立ちます。YouTube Kidsアプリを利用する子どもたちのフィードには、不適切なコンテンツが大量に表示されます。暴力、ホラー、性的な内容を描写するコンテンツが含まれます。

機械学習がうまくいかない理由

機械学習が意図しない結果を招く原因は、大きく分けて「データ」と「人」の2つです。データに関して言えば、「ゴミを入れればゴミが出る」という言葉が当てはまる。AIに投入されるデータが限定的であったり、偏りがあったり、品質が低いと、結果的にAIに幅が出たり、偏りが出たりします。

しかし、プログラマーに適切なデータが与えられても、人々が彼らの仕事に干渉することがあります。悪意を持って、あるいは自分勝手に使っている人がいることに、ソフトの作り手は気づかないことが多いのです。ディープフェイクは、映画の特殊効果を高めるための技術から生まれたものです。

より没入感のあるエンターテインメントを提供するために作られたものも、ひとたび悪用されれば、人々の人生を台無しにしてしまうこともあります。

悪意のある利用を防ぐために、機械学習技術のセキュリティ対策を強化する取り組みがあります。しかし、その技術はすでにあるのです。一方、多くの企業では、こうした動きを悪用しないようにするために必要な意志が示されていない。

機械学習アルゴリズムがもたらすもの

機械学習や人工知能がほとんど期待に応えていないことに気づくと、少し悲観的になってしまうかもしれません。しかし、利便性だけでなく、生活全般を向上させるなど、さまざまな面で私たちを助けてくれているのです。

AIや機械学習のポジティブな影響について少し迷っている方は、AIがサイバー犯罪やハッキングとどのように戦うことができるかを知り、希望を取り戻しましょう。

  • 2021-03-23 07:51 に公開
  • 閲覧 ( 33 )
  • 分類:IT

あなたが興味を持っているかもしれない記事

匿名者
匿名者

0 件の投稿

作家リスト

  1. admin 0 投稿
  2. 匿名者 0 投稿

おすすめ