画像生成AIのStable Diffusionなどに使われるデータセット「LAION-5B」に同意のない子どもの写真が含まれており身元まで特定可能

日本 ニュース ニュース

画像生成AIのStable Diffusionなどに使われるデータセット「LAION-5B」に同意のない子どもの写真が含まれており身元まで特定可能
日本 最新ニュース,日本 見出し
  • 📰 gigazine
  • ⏱ Reading Time:
  • 32 sec. here
  • 2 min. at publisher
  • 📊 Quality Score:
  • News: 16%
  • Publisher: 51%

画像生成AIのStable Diffusionなどのトレーニングには、約58億5000万もの画像とテキストの組み合わせからなるデータセット「LAION-5B」が用いられています。新たに人権NGOのヒューマン・ライツ・ウォッチ(HRW)が、LAION-5Bにはブラジルの子どもたちの写真が同意なしで使われており、多くの子どもたちは身元まで追跡可能であると報告しました。

氏らは新たな調査で、LAION-5Bのデータセットからブラジルの少なくとも10州で撮影された子どもの写真170枚を発見しました。一部の子どもは名前が添付のテキストに含まれていたり、画像のURLが保存されていたり、撮影場所がわかったりするため、多くの場合は子どもの身元まで特定することが可能だったと報告されています。

調査で発見された写真は、手袋をはめた医師に抱きかかえられている生後間もない乳児のものから、バースデーケーキのろうそくを吹き消す幼児、家で下着姿で踊る子ども、学校でプレゼンテーションを行う生徒、高校のお祭りで写真を撮るティーンエイジャーまで、子ども時代全体に及びました。これらの写真の多くは少数の人のみが見ることを想定したもので、個人ブログや子育てブログにアップロードされたものだったり、再生回数の少ないYouTube動画を静止画で切り出したものだったりしたとのこと。 LAIONはHRWが発見した子どもたちの写真がデータセットに含まれていることを認め、削除することを約束しました。LAIONの広報担当者であるネイト・タイラー氏はテクノロジー系メディアのArs Technicaの問い合わせに対し、「これは非常に懸念される問題であり、非営利のボランティア団体として私たちは支援のために力を尽くします」と述べました。しかし、今回HRWが調査したのはLAION-5Bのデータセットのうち0.0001%未満だったそうで、今回発見された写真は氷山の一角に過ぎないとみられています。

LAION-5Bのデータセットに含まれてしまった子どもたちの写真は、画像生成AIの出力に利用されることになります。LAIONはデータセットで訓練されたAIモデルが元データをそのまま再現できるわけではないと主張していますが、画像生成AIを用いて女性のヌード画像を生成する

このニュースをすぐに読めるように要約しました。ニュースに興味がある場合は、ここで全文を読むことができます。 続きを読む:

gigazine /  🏆 80. in JP

日本 最新ニュース, 日本 見出し

Similar News:他のニュース ソースから収集した、これに似たニュース記事を読むこともできます。

入植者のパレスチナ人迫害、06年以降で最悪 ヨルダン川西岸入植者のパレスチナ人迫害、06年以降で最悪 ヨルダン川西岸国際人権団体「ヒューマン・ライツ・ウオッチ」(HRW)は20日までに、パレスチナ自治区ヨルダン川西岸でイスラエル人入植者によるパレスチナ人への攻撃件数が、国連が関連データの収集を開始した2006年以降、最悪の水準にあると報告した。
続きを読む »

きちんとチェックすると「781年」かかるAI用データセット「LAION-5B」の課題がよくわかる「Models All The Way Down」きちんとチェックすると「781年」かかるAI用データセット「LAION-5B」の課題がよくわかる「Models All The Way Down」Stable Diffusionをはじめとする主要な画像生成AIのトレーニングには、50億枚超の画像とテキストのセットである「LAION-5B」が用いられています。週5で働くフルタイム労働者が1秒ずつ画像を目視確認すると781年かかるといわれているデータセットの膨大さや、その問題点がまとめられたサイト「Models All The Way Down」が公開されました。
続きを読む »



Render Time: 2025-02-24 10:37:59