Xより
さっき知らん番号に間違って出たら義妹から大変なトラブルに巻き込まれているからお金至急送って欲しいって言われた。誰って言ったら義妹の名前言うし私の名前も言う….声も義妹で電話番号だけが違う。とりあえずかけ直すわって電話切って本人にかけたらやはり詐欺電話だと判明。
— Sao🇨🇦 (@seikatau) October 24, 2023
留守番電話の設定を自分の声で登録してる人は気をつけて。どうやらそこから個人情報とか取られ、声までもAIで似せてかける詐欺電話が最近北米で流行ってるらしい。その場で変なこと言わずとりあえず事実確認した方がいいよ!
— Sao🇨🇦 (@seikatau) October 24, 2023
精度高いよね😅呼び方に少しだけ違和感があってさ。あと普通にお金送ってとか言ってこないから変だなーって思って。でもここも改善されると信じちゃうかも😇
— Sao🇨🇦 (@seikatau) October 24, 2023
ターミネーターにありましたね。https://t.co/vVmMkSBorQ
— くま★くま💙💛 (@46Norick) October 25, 2023
AI音声、そういうとこだけ、この手の犯罪者の能力は高いな。もっと違う方向に力注げよ。
— パシフィック231 (@allmendstr) October 25, 2023
この記事への反応
・さっそくAIボイスサンプリングの悪用がはじまっているよう。一旦保留で、確認を。
・こういうの流行ってるぽいね、声も容姿も引っこ抜いてAIに知人を装わせる詐欺電話。顔出し声ありでYou TubeやTikTok上げてる知人からのビデオ通話とか、取り敢えず一旦疑ってみてね。
・ほんの短い動画から声を拾いAIで本人そっくりに生成できるみたいですね。動画さえも作れるらしい。
やはり即座に対応せず第三者に相談する、本人にかけ直すなど基本的な対応が一番ですね。
・中国でも増えてるらしいよね
声を似せられるAI使った電話の詐欺
動画の通話もできるらしいし
犯罪の方が新しい方法への柔軟性が高い…
・オレオレ詐欺もAIで進化してるのね😰
これから被害が増えそうだわ。
・こういう場合は、一旦冷静になって本当の「本人」へ電話が繋がるまで確認を取るのがやっぱ大切よね。
・電話の声ってのは本人の声をそのまま繋いでるわけじゃなくて機械でそれっぽく似せてるだけだからいくらでも模倣できる的な話がなかったっけ
「電話の声が似てる」はアテにならない
・“声”を盗む時代。
今はAIで人の声は似せられる。
盗まれた“あなた”が知らないところで犯罪に利用させる。
オレオレ詐欺ってそこまで進化しているのか…
気をつけないとな
気をつけないとな
蝸牛くも(GA文庫/SBクリエイティブ刊)(著), 栄田健人(著), 足立慎吾/神奈月昇(著)(2023-10-25T00:00:00.000Z)
5つ星のうち4.8


けっこう被害が発生したあとで周回遅れの対応するんだろうなあ・・・あーあ
ま、貧乏人には関係ないか
留守電音声のサンプル程度で作れるわけねえだろ
こんなの信用するアホこそ詐欺に引っかかるわ
時間差で数か月後にならないと発覚しない詐欺とか流行ってる
あと登録していない電話番号には出るな
取った瞬間に海外からの電話で高額請求とかされる
なんて言って油断してるとあっさりやられる
プリキュア歴代キャラの名前を今すぐに言ってみて。
これで防げました。
記事書くのが楽だからだろ
相手側の受け答えが今一つ詰まってばかりで流暢でない場合は注意した方がいいかもしれませんな
ただ、今後はこの分野でのAI技術が発展して、声の変換だけじゃなく翻訳なんぞも加わって
どこぞの外国からの詐欺電話もかかってきたりするんだろうな
お前は見捨てられてるもんなw
いや、確かにTVでAIによる詐欺犯罪のことはやってたけど、そういう事例が海外でもある、程度のことで日本の一般家庭にかかってくるもんじゃねぇだろw
大方TV見てネタにしたんじゃないの
電話通すとわからなくなることはあるかも
AIによる声真似
流石に嘘松でした
詐欺は騙す方しか悪くない
騙される方は間抜けなだけ
15分くらいの音声からAIで声作ってそっくりな声で別の人がしゃべれるっていうやつ
日本にかかってくる類のもんじゃないでしょ、海外でのことだし
AIにその人の声を記憶させて生成、専用の機械つけて他の人がそっくりな声出せるってやつ
そもそも個人情報って割と売り買いされてて手に入るんだよ。妹の声が留守番電話で入手できたら姉に電話かけるだけでいいだろ?
ヤクザの末端のチンピラが運営してるオレオレ詐欺グループ技術力すごくて草
豆な
「人質が無事かどうか本人を電話口に出せ!」
ってやつ、もうこれじゃ安否確認できない時代になってしまったんやな
AIっていうから生成AIみたいなのを想像してるやついるけど、AIボイスチェンジャーだよ。
だから嘘松って話だ
海外でちょっと話題になった技術ってだけで日本にまで降りてきてない
少なくとも今はまだ
家族情報調べてかけてきてるんだから楽勝だよ
>誰って言ったら義妹の名前言うし私の名前も言う….声も義妹で電話番号だけが違う。
一応この詐欺自体はガチである、この間TVでもやってた
なんでそう思うんだよ。誰でもできるのに。
今は一週間もあれば十分対応するんや
これ
今の時代電話で金要求してくる時点でほぼ詐欺確定なんだし
どんだけ声が似てようがなんだろうが関係ないわ
引っかかる奴が情弱すぎるだけ
そのテレビ見て使える!と思ったんだろうねw
わかりやすw
出来るかよ
俺の知ってる番組はこのツイートの後だから、少なくとも俺の知ってる番組ではないな
他はしらん
そっか
AI音声はオレオレ詐欺とか人質の電話とかで実用化されてるって
もっと注意喚起しないと
カナダ在住なんだが
>2019 年、犯罪者は、AI音声技術を利用して、英国に拠点を置くエネルギー会社に音声詐欺を仕掛けました。電話の中で詐欺師は、ドイツにある同社の親会社のCEO最高経営責任者を装い、ハンガリーのサプライヤーに22万ユーロ(24万3000ドル)を至急送金するよう要求しました。1回目の電話の後、詐欺師はさらに2回電話をかけてきました。1回目は、親会社がすでに返金を行ったと報告して英国オフィスのスタッフを安心させ、2回目にはさらなる送金を要求しました。英国の代表は、3回とも上司である親会社のCEOと話していると完全に信じ込んでいました。
思った以上に技術が向上してるのか別の所からデータ取られたかたまたまの似たのが作れた一例か
まあ犯罪者側も使うよな
>彼のドイツ語なまりや口調、話し方がそっくりだったからです。
オッス!オラ悟空!よろしくなっ!って電話しまくりてえ
簡単にいうと、ボイスチェンジャーなんだよ。例えばAさんが歌ったのを
Bさんが歌ったようにすることが出来る。
みたいなニュースやってたけどそれ見て考えたんかね?
日本語で数分で作れるボイスサンプル聞いたことあるけどあれじゃ電話越しでもまだばれるわ
一人の人間が同じネタで複数のまとめブログに記事投げてる
反とかはどーでもいいけど留守番程度のサンプルからつくれますよ。
VELL-Eのように超巨大なデータからそのサンプルに近い声を選び出す方式なら可能です。
電話となるとさらに電話がその話者に近い音に置き換えるからなおのこと誤認しやすくなるかと。
NTTデータが個人情報を流出させたりなんだで極めて精密な個人情報の鋳型が特殊詐欺のグループで共有化されて
音声データすらハッキングされてAIが忠実に模倣するからもはや生体認証すら役立たず
AIは人類の敵である
>スゴすぎる”音声生成AI 実際に使ってみた! 将来の活用方法は?悪用されるケースも続々と…【Nスタ解説】
リアルタイムで、なんか箱みたいなのを口に当てて話すだけで女の声になってる。いやマジで見分けつかなかった。
特にこれ滑舌が悪い人の声に変換したら効果絶大だよ。これ絶対に本人やろ!って感じになる。
一人は絶対必要だけど。
馬鹿じゃねーの?w
ん???
いや、電話に録音機能が付いてて「ただいま留守にしてます」ってのを自分の声を入れて録音してるってだけだよ。
難しいことじゃない。
ボイチェンね
なら訛りまで似るとかはやっぱ偶然ってことか
勿論警戒は必須だけど
訛りとかも似るよ。AIだからその辺まで計算するので。
ボイチェンは別の人間が喋るんだから似るわけないだろ
怖すぎるわ
最近の若い子はそもそも電話が合成音声でできてるの知らないのか
近い感じの声出せば勝手に同じように聞こえるぞ
VTuberは絵になりすまして弱者から金を騙し取る詐欺師
だから、、ボイチェンなんだけどAIのボイチェンなんだから今までのボイチェンとレベル違うんだよ。
それと、お前が似るわけない!っていうけど、実際にできてる声は、訛りまで完全再現してあるから、
仕組みはわからんけど訛りは再現できるんだよ。70の書き込みでも訛りまで同じだったから騙されたって言ってるやろ?
犯人はターゲットの老人宅の自宅前から電話し
家電が鳴るかどうかの確認をするみたいやったな
(老人は耳が遠いので外からでも電話の音が聞こえる)
病気が嘘だったことはあった
似ていた=技術があるとはならんだろ、たまたま喋り方が似てた可能性は無視か?
ボイチェンじゃなくて音声認識から文章抽出→ボイスロイドで再生みたいなものだとして
数秒のサンプルからボイスロイドみたいなものを作ってそれを使う技術はあるけど
訛りまで真似ようと思うと留守電レベルじゃ無理だぞ
日本じゃ何の技術も生まれないんだからEU、アメリカに続いてはよ規制しろ
そこのテメエだよ図星でスルーもできない低学歴ププーッ
ほら顔真っ赤で反応┐(´д`)┌
前後全くつながらんやん
うーん。話が通じないな。そもそもお前のいう訛りってなに?
「あ」を発音する時に「あ」と「え」の中間みたいになるのが訛りなんじゃないの?それくらいAIだと変換するだろ?
既存のボイスチェンジャーだとただ音の高さを調整するだけだけど、AIだったらそのくらいの変換はするだろ。
相変わらず悪用が目立つなあ
結局手を出す奴にろくな奴がいないから
技術に罪は無い理論に信頼は永遠に芽生えない訳で
ネット使うなよwww
たぶん、こいつの知り合いにかけたら騙せるぞ!ってなって、そいつの個人情報をその手の会社から入手して(わいもやってみたけど500円で結構な個人情報手に入る)友人や両親、兄弟を騙すんだろ?
すぐ喉が潰れるね
あをえっぽく発音する、本人の発音の癖がそれだけなら真似られるけど
短文じゃ全部の癖把握できないからAIでも情報が足りなくて再現のしようがない
ボイスロイド作るときって意味の分からん文章読んでサンプル取るんだよ
だから留守電だけじゃ足りない、どっからか別のサンプルを引っ張ってきたか本人の癖が少なくてたまたま似た成功例かってもとのコメントで言ってる訳
一般人が知らんようなもんをいち早く理解してそれを使った犯罪で儲ける
末端の馬鹿だけ見て頭悪い連中だと思ってるのが間違いなんだよ
真似された本人はAI学習のための収録をしてたわけでもなくてやってた(らしい)
まぁ元ツイートも同じ番組見て書いたのかと思うけど
そういう時代来るよなーじゃなく
この詐欺自体はもう既にある
報道でも注意喚起されてた
この人がその話を聞いて捏造したかどうかまでは分からんがw
やろうと思えば誰でもできる
そして大半の日本人は存在すら知らないから騙されるだろうよ
以上
Aiは答えられんから分かる
まさか現実になる時代がやってくるとは
人の声、見た目の模倣はクローン技術と等しい犯罪に使用されるようになる
むしろ、DNAはコピーするけど作れるのはあくまで別人格のクローン技術よりたちが悪い
犯罪に巻き込まれて身代金要求されてその日のうちに払わなきゃ殺すと言うレベルでもなけりゃないから
相当なサンプル学習された奴ならあるかもだけど俺が知ってるのはまだ違和感がある
AIで、別の声優さんに歌わせたってやつとかあるけど、ちょっと訛った感じとかが本人そのもので
見分けつかなかったけど。
これとかかな。。
>【AI灰原哀】キミがいれば 名探偵コナン 黒鉄の魚影(サブマリン)ver.
そして人を謀り、略取する事でしか富を得ることが出来ないから
何も産み出さないのよ
こっちはしょーもない話題の記事で萎えさせるなよ
反AIバイトなんて使うとアクセス数減るぞ
あっゴキちゃんに電話かかってこなかったw
姉と妹のつながりが分からんのだけど
喩え仲の良い義妹でも金の貸し借り話になったら、「無理」で通すか
返って来ないものとして少しだけ渡して後一切の仲を断つべし
まあモラルのない人に技術は渡したら駄目だよね
義妹がSNSや留守番電話に載せていた音声を使ってAIが義妹の声マネして
ツイ主にオレオレ詐欺の電話してきたって話だと思う
でもツイ主の電話番号まで流出した経緯は不明
AIに好きな声優の声覚えさせて
好きなセリフ言わせられるって事でいいのかな
やり方教えてください
馬鹿が悪用するから誰も教えないのでは?
これ悪用されまくると証言証拠とか証拠として使えなくなりそう
お前みたいなAI絵師あたりを批判する記事のほうが伸びると思うで
犯人が焦らずに事前に電話番号変えたとか妹の声で言っていたら犯行が防げなかった
真面目に規制とかしないとヤバイ
口約束も契約的な感じでボイスレコーダとかで契約偽造とかもできそう
海外から電話かけてるの相手なんだから
相手の電話料が高額になるだけじゃね
受けた側に高額請求とかあるんか?
やり方は知らんけど既にYouTubeにいくつも上がってるし
一般人でも普通に出来るんじゃね
そもそも留守番に自分の名前を吹き込むな、と。名前を知られなければ電話がかかってくることもなかった。
既に身内になりすました詐欺電話があると注意喚起されてるで?
精々、我が声を利用しないように気を付けることだな。
生声を機械音声で似せて変換してるだけだし
懲役50年とか
マジできっちり世の中を浄化してほしいわ
こういう技術を知った矢先に思いついた嘘
つまり……ペロッ ……嘘松
これは高度なボイスチェンジャー、コナン君や赤井さんが使ってるのと近い
とにもかくにも電話やメールだけで送金しないことだな
そこそこのパソコンで一人分で何時間もかかるんだよ、今でもさ
それを毎日何百件も無差別に電話してる犯罪者側が使ってくると思う?
ホントバカだな、現実的にものを考えられないここの連中って
これでだまされてるおまえが詐欺られる側だぞ
どうやってAIが個人の声を再現するかをまず調べて来いよ
数行の最近知った聞きかじりの知識を信じちゃうとか超カモだよおまえはww
これはその後のフォロワーとのキモいやり取り見る限りAI松だな