ディープフェイクav。 【ディープフェイクAV】深偽ぽるのJP

【ディープフェイクAV】深偽ぽるのJP

ディープフェイクav

売れっ子から懐かしのスターまで、芸能人が驚きの近況を報告する番組「じっくり聞いタロウ~スター近況 秘 報告」(毎週木曜深夜0時12分放送)。 1月30日(木)の放送では、最新アイコラ動画「ディープフェイク」の現状を大暴露! アイコラとは、アイドルなどの顔写真を別人の体に合成した写真。 これは肖像権侵害に当たる許されない犯罪行為だが、桜美林大学の平和博教授によると、アイコラが人工知能AIの発達によりとんでもない進化を遂げているという。 それがアイコラの動画版と言える「ディープフェイク」。 これまでのアイコラは1枚の写真に対し写真1枚を加工するのに対し、ディープフェイクはさまざまなパターンの顔写真を約100枚以上用意。 そこから人工知能で表情のパターンを作成してAVなどのエッチな動画と合成すると、あたかもその芸能人が出演しているかのようなフェイクAV動画が作れてしまうというのです。 近年、このディープフェイクの被害に遭う芸能人やハリウッド女優が急増しているとか。 「SNSなんかでパッと流れてきて、それをチラッと見るくらいだと分からないかもしれない」と平教授。 さらに、このディープフェイクは年々爆発的な進化を遂げ、その作成方法にも変化が。 以前は数百枚の顔を読み込ませていたが、人工知能の進歩により最新のものだと顔写真1枚でディープフェイクが作成できてしまうという研究もあるのだそう。 また、ディープフェイクの悪用は芸能人だけでなく、一般人も犯罪に巻き込まれるケースが。 別れた恋人へ仕返しするリベンジポルノ。 このディープフェイクを使えば、写真だけで存在しない嘘のエッチ動画を作れてしまい、フェイク動画で相手を脅迫するという事件が起きる可能性もあるという。 さらに、人工知能の発達により人の声を元にして言ってもいないことをしゃべらせる「声のディープフェイク」も実現可能に。 実際にヨーロッパでは親会社の社長の声で子会社の社長に電話をかけてお金を振り込ませるという被害も起きているとか。 そんなディープフェイクを見破る方法はあるのか? 「貼り付けた顔は、当初はまばたきまでは再現できなかったので、目は開きっぱなしという不自然さがあったんですけど、進化してくると貼り付けた顔でもまばたきする」そうだが、鼻の向きが若干ズレていることがあるという。 また現在は、ディープフェイクをチェックするAIソフトも開発されているとか。 何はともあれ、みなさんもディープフェイクの犯罪に巻き込まれないようにご注意を! この放送は現在で配信中!.

次の

static.shopadvisor.com:本物そっくりの映像を作り出す「ディープフェイク」に注意

ディープフェイクav

ディープフェイクとは 本来の意味は「機械学習アルゴリズムのディープラーニングを利用して、2つの写真や動画の一部をスワップ(交換)させる技術」。 しかし現在、定義が広がっており、単に「フェイク動画」「偽動画」のことを指すことが多い。 「ディープフェイク」とは? いま話題になっているディープフェイクとはどのようなものだろうか? 元の定義は「2つの写真や動画の一部をスワップ(交換)させる技術」のことだ。 ただし、いま世間でいうディープフェイクは「フェイク動画」「偽動画」のことを指している。 フェイクビデオが登場した背景には、AIの急激な進歩がある。 名前のとおり、ディープフェイクは、画像認識に優れた機械学習アルゴリズムのディープラーニングを利用したもの。 これにより偽(フェイク)の動画が作られるので、「ディープフェイク」と呼ばれているわけだ。 それがディープラーニングの登場により、顔の特徴を簡単に把握できるようになり、わざわざスタジオの高価な器材を使わなくても、顔のスワッピングができるようになったのだ。 タイ・VISTECで講師を務めるスパソーン・スワジャナコーン氏は「最近はディープフェイクの技術が高度化しています。 たとえば音声も合成してフェイクビデオが作れます。 私自身は音声から動画を作り出す技術を研究をしていますが、顔の表情も含めて簡単に変えられるようになりました」と語る。 Appier チーフAIサイエンティスト ミン・スン(Min Sun)氏 スワジャナコーン氏は「ディープフェイクの範疇に入るか不明ですが、私はいま声の信号と口の動きを紐づけ、音声から動画を合成するリップシンキング技術に取り組んでいます。 これにより特定人物の声でテキストを読み上げられます」と付け加える。 ディープフェイク作成に利用される技術「GAN」とは? 偽の写真や動画の作成プロセスにディープラーニングを組み込むと、それらの質を効果的に上げることができる。 ディープフェイクでは、教師なし学習の敵対的生成ネットワーク「GAN」(Generative Adversarial Network)が利用されるようになってきた。 スワジャナコーン氏は「必ずしもディープフェイクにGANが使われるわけではありませんが、非常に有用な技術として注目を浴びています」と語る。 GANは、本物と同様の内容を作り出そうとする「ジェネレーター」と、本物かどうかを識別する「ディスクリミネイター」という2つのネットワークから成り立つ。 「たとえばGANで偽の動画をつくる場合、ジェネレーターで可能な限りリアルな偽の動画を作ります。 一方、ディスクリミネイターで、その動画が偽物かどうかを検知します。 GANは、この2つのネットワークが互いに競い合う仕組みです。 しかしGANを利用することで、到底真似られないような表情まで生成することが可能になります。 そのため従来CG技術を使っていたプロセスに、GANが利用されるようになりました」と、その効果について語る。

次の

ディープフェイク動画(AI合成動画)の作り方、簡単スマホアプリ、PCソフトは? あなたも狙われる、フェイク動画の恐怖!

ディープフェイクav

参考動画:BuzzFeedVideo|有名なディープフェイク動画の例。 この偽動画を作成したのはコメディアンのJordan Peele氏(画面右に登場)とのこと。 フェイク動画の将来の危険性について警告しています。 ディープフェイクとは? によれば、 「ディープフェイク(deep fake)」とは、人工知能の重要技術である「ディープラーニング(deep learning)」と英語で捏造・にせものを意味する「フェイク(fake)」から作られた造語、とのことです。 人工知能によって、本人が実際には話していないことを話させたり、人物の顔を巧妙に入れ替えたりして、本物と見分けがつかないような偽動画などを作ることができる技術のようです。 一人の男が、盗んだデータで何億人ものあらゆる秘密、生活、将来を完全に支配している様子を。 )などと発言しているフェイク動画です。 しゃべるモナリザ?たった1枚の画像からディープフェイク動画を作成 参考動画|tech 4tress:ディープフェイク動画を作成できるフリーソフトツールとして有名な「FakeApp」のダウンロード・インストール方法や使い方などが解説されています。 — VICE VICE 他にも、スマホなどで簡単にフェイク動画や画像を作れるアプリがどんどん出てくるのも、もはや時間の問題といえそうです。 有名人だけでなく、どんな人でも被害者になりうるため、非常に怖い脅威となりつつあります。 このように偽動画などを簡単に作れるようになることで、有名な政治家のフェイク動画が選挙結果に影響を及ぼしたり、捏造動画が新たないじめの手段に使われたりと、様々な可能性が懸念されています。 ディープフェイクを見破る方法や対策など 参考動画|東京新聞:フェイク動画を見破る人工知能AIについての報道。 ディープフェイクのアルゴリズムによる巧妙な偽動画は、すでに人間の目では本物と見分けることは難しくなりつつあるため、AIによってディープフェイクを見破る技術の研究が進んでいるようです。 ただ、偽造技術の方も日々進歩しているため、結局いたちごっこになってしまうのでは?と個人的には危惧しています。 他にも、たとえば透かしを入れる方法などが検討されているようですね。 法律の整備などもこれから急速に進んでいくでしょう。 どんな情報も鵜呑みにせず、各自が総合的に判断していく能力が今まで以上に求められることになりそうですね。 ダーウィン・ジャーナルにご訪問いただきありがとうございます!管理人のチャールズです。 当サイトでは生物学や心理学・テクノロジー分野のクリエイティブ・コモンズの論文を中心に、管理人が個人的に興味を持った世界の最新の研究成果や面白い科学ニュース雑学などを、できるだけわかりやすくまとめて紹介しています。 各分野の専門家ではない管理人が個人で運営しておりますため、恐縮ですが、誤りなどを含んでいる可能性がありますことを予めご了承下さい(参考:)。 記事中には原則としてソースの学術論文をリンク付きで明記していますので、学術・医療分野などにおける正確性・厳密性を求められる方はそちらを直接ご覧下さいますようお願い致します。 もし誤りについてのご指摘やご意見・ご感想などありましたら、コメント欄に記入あるいはからお気軽にご連絡頂ければ幸いです。

次の