自動ニュース作成G
女性の写真を1クリックで裸にしてしまうアプリケーションが登場
https://gigazine.net/news/20190627-deepnude-ai-undresses-photo/
2019-06-28 00:47:27
>AIを用いて有名女優のポルノ映像を作成するという「フェイクポルノ」が2017年末から2018年にかけて大流行しましたが、これと同じようにAIやニューラルネットワークを用いることで、女性の写真から服だけを削除して裸にしてしまうという凶悪なアプリケーション「DeepNude」が登場しています。
・計算能力の無駄遣いw
・つまりおっさんの顔をした女性の裸の画像を作れてしまうのか
・剥ぎコラ作成が捗るな。
・この手の偽映像作製技術、だいぶ洒落にならない所まで来てるらしいな。政治家の会談の映像とかでっちあげる事も可能だとか https://www.buzzfeed.com/jp/charliewarzel/the-terrifying-future-of-fake-news-1
・速攻で飽きが来るよ。おっさんになったからかもしれんが一切興味無くなった
・#2 >女性の写真のみ変換可能
・おっさんの半裸画像でもオッパイとか付加されるて事じゃね。 >漫画のキャラクターなどではうまくいかなかった
・相撲取りの半裸画像なら・・・
・攻殻機動隊の『この時代は動画も合成可能なのでデジタルデータに証拠能力は無い』みたいなのがあったの思い出した。
・批判を浴びて5日で削除だそうですhttps://news.livedoor.com/article/detail/16693533/
・地下に潜った方がアプリの進化は早いだろう。おっさんなのでこれっぽっちも動かんが、10代だったら極めようとする自分を想像できる