• 3日ランキング
  • 1週間ランキング
  • 月間ランキング

Xより














この記事への反応

さっそくAIボイスサンプリングの悪用がはじまっているよう。一旦保留で、確認を。

こういうの流行ってるぽいね、声も容姿も引っこ抜いてAIに知人を装わせる詐欺電話。顔出し声ありでYou TubeやTikTok上げてる知人からのビデオ通話とか、取り敢えず一旦疑ってみてね。

ほんの短い動画から声を拾いAIで本人そっくりに生成できるみたいですね。動画さえも作れるらしい。
やはり即座に対応せず第三者に相談する、本人にかけ直すなど基本的な対応が一番ですね。


中国でも増えてるらしいよね
声を似せられるAI使った電話の詐欺
動画の通話もできるらしいし
犯罪の方が新しい方法への柔軟性が高い…


オレオレ詐欺もAIで進化してるのね😰
これから被害が増えそうだわ。


こういう場合は、一旦冷静になって本当の「本人」へ電話が繋がるまで確認を取るのがやっぱ大切よね。

電話の声ってのは本人の声をそのまま繋いでるわけじゃなくて機械でそれっぽく似せてるだけだからいくらでも模倣できる的な話がなかったっけ
「電話の声が似てる」はアテにならない


“声”を盗む時代。
今はAIで人の声は似せられる。
盗まれた“あなた”が知らないところで犯罪に利用させる。






オレオレ詐欺ってそこまで進化しているのか…
気をつけないとな



B0CGRB8N54
蝸牛くも(GA文庫/SBクリエイティブ刊)(著), 栄田健人(著), 足立慎吾/神奈月昇(著)(2023-10-25T00:00:00.000Z)
5つ星のうち4.8

B0CKF4P1WC
糸町秋音(著), 鬼ノ城ミヤ(著), 片桐(著)(2023-10-25T00:00:00.000Z)
5つ星のうち4.6







コメント(163件)

1.はちまき名無しさん投稿日:2023年10月26日 15:01▼返信
オレオ詐欺
2.はちまき名無しさん投稿日:2023年10月26日 15:03▼返信
こういう事例が出た時点で警察やマスゴミはすぐ注意喚起すべきだろうけど

けっこう被害が発生したあとで周回遅れの対応するんだろうなあ・・・あーあ
3.はちまき名無しさん投稿日:2023年10月26日 15:03▼返信
JINと同じ画像を使う理由は?
4.はちまき名無しさん投稿日:2023年10月26日 15:06▼返信
嘘松事例
5.はちまき名無しさん投稿日:2023年10月26日 15:06▼返信
ぱくり事例
6.はちまき名無しさん投稿日:2023年10月26日 15:06▼返信
留守電を自分の声にしてどうやって個人情報盗むんだよ
7.はちまき名無しさん投稿日:2023年10月26日 15:06▼返信
頭が悪い事例
8.はちまき名無しさん投稿日:2023年10月26日 15:07▼返信
なにか一つでも見落としたら高齢者じゃなくても引っかかるかもしれないっていう感じになってきたな
ま、貧乏人には関係ないか
9.はちまき名無しさん投稿日:2023年10月26日 15:07▼返信
まーた反AIのガセネタか…
留守電音声のサンプル程度で作れるわけねえだろ
こんなの信用するアホこそ詐欺に引っかかるわ
10.はちまき名無しさん投稿日:2023年10月26日 15:07▼返信
AIがなんでもできると思ってる松w
11.はちまき名無しさん投稿日:2023年10月26日 15:07▼返信
「いつもの口座に入金しとくわ」で別方法を要求してきたらそれは詐欺
12.はちまき名無しさん投稿日:2023年10月26日 15:08▼返信
この嘘松をホントだと思うやつが詐欺に騙されるw
13.はちまき名無しさん投稿日:2023年10月26日 15:08▼返信
貴様!俺の声を盗みやがったな!
14.はちまき名無しさん投稿日:2023年10月26日 15:08▼返信
そんなこともあろうかと、もう入金しといたから!
15.はちまき名無しさん投稿日:2023年10月26日 15:08▼返信
ネット上の支払いには必ず2段階認証を設定しておけ
時間差で数か月後にならないと発覚しない詐欺とか流行ってる
あと登録していない電話番号には出るな
取った瞬間に海外からの電話で高額請求とかされる
16.はちまき名無しさん投稿日:2023年10月26日 15:08▼返信
AIに声を真似されて引っかかる人は、現時点でも「喉の手術で」系の電話で騙されてしまう人だよ
17.はちまき名無しさん投稿日:2023年10月26日 15:09▼返信
>>8
なんて言って油断してるとあっさりやられる
18.はちまき名無しさん投稿日:2023年10月26日 15:10▼返信
これは嘘松だろうけど知ってる番号にかけ直すのは普通に有効
19.はちまき名無しさん投稿日:2023年10月26日 15:10▼返信
オレオレ詐欺の息子かたった電話かかってきた時
プリキュア歴代キャラの名前を今すぐに言ってみて。

これで防げました。
20.はちまき名無しさん投稿日:2023年10月26日 15:10▼返信
嘘松
21.はちまき名無しさん投稿日:2023年10月26日 15:10▼返信
詐欺は騙される方が悪い、騙す方は悪くない
22.はちまき名無しさん投稿日:2023年10月26日 15:10▼返信
俺なら見捨てるけどw
23.はちまき名無しさん投稿日:2023年10月26日 15:10▼返信
ターミネーターの犬の名前で見破ったけど、犬も飼い主も皆◯しされたから、イーブンってとこかな…
24.はちまき名無しさん投稿日:2023年10月26日 15:11▼返信
>>3
記事書くのが楽だからだろ
25.はちまき名無しさん投稿日:2023年10月26日 15:11▼返信
まだ今の時点の技術だと、AIで生成した声に変換する際に数秒のタイムラグが生じるらしいから
相手側の受け答えが今一つ詰まってばかりで流暢でない場合は注意した方がいいかもしれませんな
ただ、今後はこの分野でのAI技術が発展して、声の変換だけじゃなく翻訳なんぞも加わって
どこぞの外国からの詐欺電話もかかってきたりするんだろうな
26.はちまき名無しさん投稿日:2023年10月26日 15:12▼返信
自分の家族の声も本物かAIか聴き分けられないなんて酷過ぎる...
27.はちまき名無しさん投稿日:2023年10月26日 15:12▼返信
>>22
お前は見捨てられてるもんなw
28.はちまき名無しさん投稿日:2023年10月26日 15:12▼返信
リアルタイム生成AIでそんなスムーズな会話を実現してるなんて凄すぎるねその犯人w
29.はちまき名無しさん投稿日:2023年10月26日 15:14▼返信
嘘松
いや、確かにTVでAIによる詐欺犯罪のことはやってたけど、そういう事例が海外でもある、程度のことで日本の一般家庭にかかってくるもんじゃねぇだろw
大方TV見てネタにしたんじゃないの
30.はちまき名無しさん投稿日:2023年10月26日 15:14▼返信
>>26
電話通すとわからなくなることはあるかも
31.はちまき名無しさん投稿日:2023年10月26日 15:15▼返信
YouTubeでもちょっと話題になったがすぐ誰も取り上げなくなったよな警察かGoogleが警告でも出したのかな
AIによる声真似
32.はちまき名無しさん投稿日:2023年10月26日 15:15▼返信
声優の声をAIで再現してセリフを収録とはわけが違うからなぁ
流石に嘘松でした
33.はちまき名無しさん投稿日:2023年10月26日 15:15▼返信
本人でも断るけどね
34.はちまき名無しさん投稿日:2023年10月26日 15:15▼返信
普通、家族ならLINEで連絡取るだろうに
35.はちまき名無しさん投稿日:2023年10月26日 15:15▼返信
>>21
詐欺は騙す方しか悪くない
騙される方は間抜けなだけ
36.はちまき名無しさん投稿日:2023年10月26日 15:16▼返信
これタカトシの番組でやってたやつじゃないの?
15分くらいの音声からAIで声作ってそっくりな声で別の人がしゃべれるっていうやつ
日本にかかってくる類のもんじゃないでしょ、海外でのことだし

37.はちまき名無しさん投稿日:2023年10月26日 15:17▼返信
これは言うまでもなく嘘松だけどそもそも電話口の会話だけで金銭のやり取りするってのがおかしいと早く気付こう
38.はちまき名無しさん投稿日:2023年10月26日 15:17▼返信
自民党が推進するわけだ
39.はちまき名無しさん投稿日:2023年10月26日 15:18▼返信
一応いっとくとこれAIがしゃべるわけじゃないぞ
AIにその人の声を記憶させて生成、専用の機械つけて他の人がそっくりな声出せるってやつ
40.はちまき名無しさん投稿日:2023年10月26日 15:18▼返信
反AIがーーーとかいって犯罪行為を助長してるやつなんなの?実際、アメリカとかで使われてるし。
そもそも個人情報って割と売り買いされてて手に入るんだよ。妹の声が留守番電話で入手できたら姉に電話かけるだけでいいだろ?
41.はちまき名無しさん投稿日:2023年10月26日 15:18▼返信
詐欺が多すぎて何をするにも調べまくってるし、身内でも金が絡む場合はまず疑うしかないな
42.はちまき名無しさん投稿日:2023年10月26日 15:18▼返信
多分日本語音声を本人そっくりに作るのは英語の何倍もむずいと思う
43.はちまき名無しさん投稿日:2023年10月26日 15:19▼返信
>>39
ヤクザの末端のチンピラが運営してるオレオレ詐欺グループ技術力すごくて草
44.はちまき名無しさん投稿日:2023年10月26日 15:19▼返信
携帯電話は本人の声に近い合成音声に変換されて通信される
豆な
45.はちまき名無しさん投稿日:2023年10月26日 15:19▼返信
漫画やドラマでよく観る
「人質が無事かどうか本人を電話口に出せ!」
ってやつ、もうこれじゃ安否確認できない時代になってしまったんやな
46.はちまき名無しさん投稿日:2023年10月26日 15:20▼返信
義妹なら無視だな
47.はちまき名無しさん投稿日:2023年10月26日 15:20▼返信
ふーん。兄さん元気?名前言ってみて?
48.はちまき名無しさん投稿日:2023年10月26日 15:20▼返信
AIで音程を調整するだけだし、簡単に作れるだろ?あと英語も日本語も同じだろ。

AIっていうから生成AIみたいなのを想像してるやついるけど、AIボイスチェンジャーだよ。
49.はちまき名無しさん投稿日:2023年10月26日 15:20▼返信
>>43
だから嘘松って話だ
海外でちょっと話題になった技術ってだけで日本にまで降りてきてない
少なくとも今はまだ
50.はちまき名無しさん投稿日:2023年10月26日 15:21▼返信
凄い設定思い付いちゃった!とウキウキだったんだろうね
51.はちまき名無しさん投稿日:2023年10月26日 15:21▼返信
※47
家族情報調べてかけてきてるんだから楽勝だよ
>誰って言ったら義妹の名前言うし私の名前も言う….声も義妹で電話番号だけが違う。
52.はちまき名無しさん投稿日:2023年10月26日 15:21▼返信
>>50
一応この詐欺自体はガチである、この間TVでもやってた
53.はちまき名無しさん投稿日:2023年10月26日 15:22▼返信
※49
なんでそう思うんだよ。誰でもできるのに。
54.はちまき名無しさん投稿日:2023年10月26日 15:22▼返信
※36
今は一週間もあれば十分対応するんや
55.はちまき名無しさん投稿日:2023年10月26日 15:22▼返信
>>37
これ
今の時代電話で金要求してくる時点でほぼ詐欺確定なんだし
どんだけ声が似てようがなんだろうが関係ないわ
引っかかる奴が情弱すぎるだけ
56.はちまき名無しさん投稿日:2023年10月26日 15:22▼返信
俺の頭の中では日々ゴキゴキ詐欺が流行ってるわ
57.はちまき名無しさん投稿日:2023年10月26日 15:22▼返信
でんわにでんわ
58.はちまき名無しさん投稿日:2023年10月26日 15:23▼返信
>>52
そのテレビ見て使える!と思ったんだろうねw
わかりやすw
59.はちまき名無しさん投稿日:2023年10月26日 15:24▼返信
>>53
出来るかよ
60.はちまき名無しさん投稿日:2023年10月26日 15:25▼返信
>>58
俺の知ってる番組はこのツイートの後だから、少なくとも俺の知ってる番組ではないな
他はしらん
61.はちまき名無しさん投稿日:2023年10月26日 15:25▼返信
ウルフィーどうしたの?
62.はちまき名無しさん投稿日:2023年10月26日 15:25▼返信
>>54
そっか
63.はちまき名無しさん投稿日:2023年10月26日 15:26▼返信
ちょうどこの前テレビの犯罪番組で言ってたな
AI音声はオレオレ詐欺とか人質の電話とかで実用化されてるって
64.はちまき名無しさん投稿日:2023年10月26日 15:26▼返信
まあこれが本当か嘘かはわからんが、ほんとうにAIで音声つくる詐欺が流行ってるのなら怖いな
もっと注意喚起しないと
65.はちまき名無しさん投稿日:2023年10月26日 15:26▼返信
※49
カナダ在住なんだが
66.はちまき名無しさん投稿日:2023年10月26日 15:26▼返信
いろいろ深刻やな・・。2019年時点でこれ。今は誰でもAI使えるからより深刻化してる。

>2019 年、犯罪者は、AI音声技術を利用して、英国に拠点を置くエネルギー会社に音声詐欺を仕掛けました。電話の中で詐欺師は、ドイツにある同社の親会社のCEO最高経営責任者を装い、ハンガリーのサプライヤーに22万ユーロ(24万3000ドル)を至急送金するよう要求しました。1回目の電話の後、詐欺師はさらに2回電話をかけてきました。1回目は、親会社がすでに返金を行ったと報告して英国オフィスのスタッフを安心させ、2回目にはさらなる送金を要求しました。英国の代表は、3回とも上司である親会社のCEOと話していると完全に信じ込んでいました。
67.はちまき名無しさん投稿日:2023年10月26日 15:27▼返信
留守電からAIで生成するっていうけど、自然な発音にしようと思うとそれだけじゃ情報足りないんじゃないか
思った以上に技術が向上してるのか別の所からデータ取られたかたまたまの似たのが作れた一例か
68.はちまき名無しさん投稿日:2023年10月26日 15:27▼返信
迷惑電話の対応で使ってる例は前に見たけど
まあ犯罪者側も使うよな
69.はちまき名無しさん投稿日:2023年10月26日 15:27▼返信
まだ留守番電話で自分の声設定してるやつとかいるのか
70.はちまき名無しさん投稿日:2023年10月26日 15:28▼返信
66の続き
>彼のドイツ語なまりや口調、話し方がそっくりだったからです。
71.はちまき名無しさん投稿日:2023年10月26日 15:29▼返信
悟空のフリして
オッス!オラ悟空!よろしくなっ!って電話しまくりてえ
72.はちまき名無しさん投稿日:2023年10月26日 15:30▼返信
※67
簡単にいうと、ボイスチェンジャーなんだよ。例えばAさんが歌ったのを
Bさんが歌ったようにすることが出来る。
73.はちまき名無しさん投稿日:2023年10月26日 15:31▼返信
地声じゃなくて留守電の声なんて精度の悪いサンプルでそこまで精巧な音声作れると思えん
74.はちまき名無しさん投稿日:2023年10月26日 15:31▼返信
電話口の音声って確か合成音声なんだろ?AIに真似できるわけがない😤
75.はちまき名無しさん投稿日:2023年10月26日 15:31▼返信
ちょっと前に「たった数分の音声データでその人そっくりのAIボイスが出来るんです!」
みたいなニュースやってたけどそれ見て考えたんかね?
日本語で数分で作れるボイスサンプル聞いたことあるけどあれじゃ電話越しでもまだばれるわ
76.はちまき名無しさん投稿日:2023年10月26日 15:32▼返信
留守電から個人情報取られるの草。AIってすげえええええええええ
77.はちまき名無しさん投稿日:2023年10月26日 15:33▼返信
>>24
一人の人間が同じネタで複数のまとめブログに記事投げてる
78.はちまき名無しさん投稿日:2023年10月26日 15:34▼返信
>>9
反とかはどーでもいいけど留守番程度のサンプルからつくれますよ。
VELL-Eのように超巨大なデータからそのサンプルに近い声を選び出す方式なら可能です。
電話となるとさらに電話がその話者に近い音に置き換えるからなおのこと誤認しやすくなるかと。
79.はちまき名無しさん投稿日:2023年10月26日 15:35▼返信
つまりこうだ
NTTデータが個人情報を流出させたりなんだで極めて精密な個人情報の鋳型が特殊詐欺のグループで共有化されて
音声データすらハッキングされてAIが忠実に模倣するからもはや生体認証すら役立たず
AIは人類の敵である
80.はちまき名無しさん投稿日:2023年10月26日 15:35▼返信
実際、喋るだけで本人の声そっくりにするやつがあるな。これ。youtubeで検索したら出てくる。
>スゴすぎる”音声生成AI 実際に使ってみた! 将来の活用方法は?悪用されるケースも続々と…【Nスタ解説】

リアルタイムで、なんか箱みたいなのを口に当てて話すだけで女の声になってる。いやマジで見分けつかなかった。
特にこれ滑舌が悪い人の声に変換したら効果絶大だよ。これ絶対に本人やろ!って感じになる。
81.はちまき名無しさん投稿日:2023年10月26日 15:37▼返信
これ声優一人いたら、他の声優の声を全部真似できてしまうってことになるなぁ・・。
一人は絶対必要だけど。
82.はちまき名無しさん投稿日:2023年10月26日 15:37▼返信
する番電話の設定を自分の名前で登録ってどういう事?
馬鹿じゃねーの?w
83.はちまき名無しさん投稿日:2023年10月26日 15:40▼返信
※82
ん???
いや、電話に録音機能が付いてて「ただいま留守にしてます」ってのを自分の声を入れて録音してるってだけだよ。
難しいことじゃない。
84.はちまき名無しさん投稿日:2023年10月26日 15:40▼返信
>>72
ボイチェンね
なら訛りまで似るとかはやっぱ偶然ってことか
勿論警戒は必須だけど
85.はちまき名無しさん投稿日:2023年10月26日 15:41▼返信
※84
訛りとかも似るよ。AIだからその辺まで計算するので。
86.はちまき名無しさん投稿日:2023年10月26日 15:43▼返信
>>85
ボイチェンは別の人間が喋るんだから似るわけないだろ
87.はちまき名無しさん投稿日:2023年10月26日 15:46▼返信
AI音声はプロの声優をほぼ完璧に真似てしまったくらいだからオレオレ詐欺なんて簡単に出来るだろうな
怖すぎるわ
88.はちまき名無しさん投稿日:2023年10月26日 15:46▼返信
嘘松
89.はちまき名無しさん投稿日:2023年10月26日 15:47▼返信
ウソウソ嘘松
90.はちまき名無しさん投稿日:2023年10月26日 15:48▼返信
>>1
最近の若い子はそもそも電話が合成音声でできてるの知らないのか
近い感じの声出せば勝手に同じように聞こえるぞ
91.はちまき名無しさん投稿日:2023年10月26日 15:51▼返信
詐欺とか一律死刑でいいのにね
92.はちまき名無しさん投稿日:2023年10月26日 15:54▼返信
>>90
VTuberは絵になりすまして弱者から金を騙し取る詐欺師
93.はちまき名無しさん投稿日:2023年10月26日 15:55▼返信
※86
だから、、ボイチェンなんだけどAIのボイチェンなんだから今までのボイチェンとレベル違うんだよ。
それと、お前が似るわけない!っていうけど、実際にできてる声は、訛りまで完全再現してあるから、

仕組みはわからんけど訛りは再現できるんだよ。70の書き込みでも訛りまで同じだったから騙されたって言ってるやろ?
94.はちまき名無しさん投稿日:2023年10月26日 15:58▼返信
ていうか、フルネームがなんでわかんだよ?
95.はちまき名無しさん投稿日:2023年10月26日 15:58▼返信
ひと昔前は入手した個人情報の確認の為に
犯人はターゲットの老人宅の自宅前から電話し
家電が鳴るかどうかの確認をするみたいやったな
(老人は耳が遠いので外からでも電話の音が聞こえる)
96.はちまき名無しさん投稿日:2023年10月26日 16:02▼返信
実妹が病気でお金がいるからって振り込んだら、
病気が嘘だったことはあった
97.はちまき名無しさん投稿日:2023年10月26日 16:03▼返信
>>93
似ていた=技術があるとはならんだろ、たまたま喋り方が似てた可能性は無視か?
ボイチェンじゃなくて音声認識から文章抽出→ボイスロイドで再生みたいなものだとして
数秒のサンプルからボイスロイドみたいなものを作ってそれを使う技術はあるけど
訛りまで真似ようと思うと留守電レベルじゃ無理だぞ
98.はちまき名無しさん投稿日:2023年10月26日 16:04▼返信
生成AIって悪用に活用される方が多いんじゃね
日本じゃ何の技術も生まれないんだからEU、アメリカに続いてはよ規制しろ
99.はちまき名無しさん投稿日:2023年10月26日 16:04▼返信
相変わらず底辺しかコメしてなくて草
そこのテメエだよ図星でスルーもできない低学歴ププーッ

ほら顔真っ赤で反応┐(´д`)┌
100.はちまき名無しさん投稿日:2023年10月26日 16:07▼返信
「折り返しの電話」で大半の詐欺は防げる
101.はちまき名無しさん投稿日:2023年10月26日 16:07▼返信
留守番電話の設定を自分の声で登録してる人は気をつけて。どうやらそこから個人情報とか取られ

前後全くつながらんやん

102.はちまき名無しさん投稿日:2023年10月26日 16:08▼返信
※97
うーん。話が通じないな。そもそもお前のいう訛りってなに?
「あ」を発音する時に「あ」と「え」の中間みたいになるのが訛りなんじゃないの?それくらいAIだと変換するだろ?

既存のボイスチェンジャーだとただ音の高さを調整するだけだけど、AIだったらそのくらいの変換はするだろ。
103.はちまき名無しさん投稿日:2023年10月26日 16:08▼返信
絵も声も
相変わらず悪用が目立つなあ
結局手を出す奴にろくな奴がいないから
技術に罪は無い理論に信頼は永遠に芽生えない訳で
104.はちまき名無しさん投稿日:2023年10月26日 16:09▼返信
>>103
ネット使うなよwww
105.はちまき名無しさん投稿日:2023年10月26日 16:09▼返信
💩♪
106.はちまき名無しさん投稿日:2023年10月26日 16:10▼返信
※101
たぶん、こいつの知り合いにかけたら騙せるぞ!ってなって、そいつの個人情報をその手の会社から入手して(わいもやってみたけど500円で結構な個人情報手に入る)友人や両親、兄弟を騙すんだろ?
107.はちまき名無しさん投稿日:2023年10月26日 16:13▼返信
>>81
すぐ喉が潰れるね
108.はちまき名無しさん投稿日:2023年10月26日 16:14▼返信
兄弟みんな声が違うと自分は思ってるけど、そういうのでもAIにかけたら似るんかな
109.はちまき名無しさん投稿日:2023年10月26日 16:16▼返信
>>102
あをえっぽく発音する、本人の発音の癖がそれだけなら真似られるけど
短文じゃ全部の癖把握できないからAIでも情報が足りなくて再現のしようがない
ボイスロイド作るときって意味の分からん文章読んでサンプル取るんだよ
だから留守電だけじゃ足りない、どっからか別のサンプルを引っ張ってきたか本人の癖が少なくてたまたま似た成功例かってもとのコメントで言ってる訳
110.はちまき名無しさん投稿日:2023年10月26日 16:20▼返信
そういう時代くるよなーと思って嘘松捏造したんですねわかります
111.はちまき名無しさん投稿日:2023年10月26日 16:22▼返信
そもそも犯罪者はアーリーアダプターの頭いい連中が率いてるやろ
一般人が知らんようなもんをいち早く理解してそれを使った犯罪で儲ける

末端の馬鹿だけ見て頭悪い連中だと思ってるのが間違いなんだよ
112.はちまき名無しさん投稿日:2023年10月26日 16:25▼返信
ここ数日内にどっかのニュース番組でやってたな
真似された本人はAI学習のための収録をしてたわけでもなくてやってた(らしい)

まぁ元ツイートも同じ番組見て書いたのかと思うけど
113.はちまき名無しさん投稿日:2023年10月26日 16:26▼返信
>>110
そういう時代来るよなーじゃなく
この詐欺自体はもう既にある
報道でも注意喚起されてた
この人がその話を聞いて捏造したかどうかまでは分からんがw
114.はちまき名無しさん投稿日:2023年10月26日 16:27▼返信
そりゃ数秒の音声でボイスデータ作れるからな(無料)

やろうと思えば誰でもできる

そして大半の日本人は存在すら知らないから騙されるだろうよ
115.はちまき名無しさん投稿日:2023年10月26日 16:34▼返信
普段津軽弁とかだとどうなんだろ
116.はちまき名無しさん投稿日:2023年10月26日 16:35▼返信
低脳嘘松
以上
117.はちまき名無しさん投稿日:2023年10月26日 16:48▼返信
電話番号変えたんか?て言えよ
Aiは答えられんから分かる
118.はちまき名無しさん投稿日:2023年10月26日 16:49▼返信
「タンゴ&キャッシュ」見ろ。音声合成で作った録音テープで濡れ衣着せられる話があるが
まさか現実になる時代がやってくるとは
119.はちまき名無しさん投稿日:2023年10月26日 16:52▼返信
AI法規制待ったなしやな
人の声、見た目の模倣はクローン技術と等しい犯罪に使用されるようになる
むしろ、DNAはコピーするけど作れるのはあくまで別人格のクローン技術よりたちが悪い
120.はちまき名無しさん投稿日:2023年10月26日 16:53▼返信
そもそも大変なトラブルに巻き込まれてその日のうちに大金が必要になる事は
犯罪に巻き込まれて身代金要求されてその日のうちに払わなきゃ殺すと言うレベルでもなけりゃないから
121.はちまき名無しさん投稿日:2023年10月26日 16:55▼返信
日本語で完璧な発音できるAIってもうあるん?
相当なサンプル学習された奴ならあるかもだけど俺が知ってるのはまだ違和感がある
122.はちまき名無しさん投稿日:2023年10月26日 17:01▼返信
※121
AIで、別の声優さんに歌わせたってやつとかあるけど、ちょっと訛った感じとかが本人そのもので
見分けつかなかったけど。
123.はちまき名無しさん投稿日:2023年10月26日 17:04▼返信
122の続き
これとかかな。。
>【AI灰原哀】キミがいれば 名探偵コナン 黒鉄の魚影(サブマリン)ver.
124.はちまき名無しさん投稿日:2023年10月26日 17:07▼返信
複数の連絡手段は持っておくべきだよ
125.はちまき名無しさん投稿日:2023年10月26日 17:09▼返信
犯罪者は人が作ったものに縋り、利用する
そして人を謀り、略取する事でしか富を得ることが出来ないから
何も産み出さないのよ
126.はちまき名無しさん投稿日:2023年10月26日 17:15▼返信
人力ボカロ職人の立場ねえな
127.はちまき名無しさん投稿日:2023年10月26日 17:22▼返信
オタクの方は面白いAIの記事作るのに
こっちはしょーもない話題の記事で萎えさせるなよ
反AIバイトなんて使うとアクセス数減るぞ
128.はちまき名無しさん投稿日:2023年10月26日 17:27▼返信
まーた「流行ってるらしい」案件松
129.はちまき名無しさん投稿日:2023年10月26日 17:31▼返信
こわいねゴキちゃん
あっゴキちゃんに電話かかってこなかったw
130.はちまき名無しさん投稿日:2023年10月26日 17:40▼返信
妹が自分の声で留守電設定しててそこから姉に電話した?それとも姉が留守電しててそこから妹の声と思わせて電話した?
姉と妹のつながりが分からんのだけど
131.はちまき名無しさん投稿日:2023年10月26日 17:51▼返信
そういう話を聞いたから嘘松したくなったのねわかるわかる
132.はちまき名無しさん投稿日:2023年10月26日 17:53▼返信
そもそも義妹には金貸さんだろ「兄に言え」で終わりじゃ
喩え仲の良い義妹でも金の貸し借り話になったら、「無理」で通すか
返って来ないものとして少しだけ渡して後一切の仲を断つべし
133.はちまき名無しさん投稿日:2023年10月26日 17:54▼返信
詐欺する人は頭が良い 有名大学卒業したら官僚になるよりソッチがいいな
134.はちまき名無しさん投稿日:2023年10月26日 17:59▼返信
結局AIは悪用されるさだめなんだなあ
まあモラルのない人に技術は渡したら駄目だよね
135.はちまき名無しさん投稿日:2023年10月26日 18:08▼返信
兄弟みんな仲が悪いからそんな電話きても皆騙されないねうちは
136.はちまき名無しさん投稿日:2023年10月26日 18:13▼返信
なんだ嘘か
137.はちまき名無しさん投稿日:2023年10月26日 18:27▼返信
留守番電話に録音した音声から個人情報ぬかれた?????????????
138.はちまき名無しさん投稿日:2023年10月26日 18:27▼返信
ここで嘘とか言ってる人は騙されそうですね
139.はちまき名無しさん投稿日:2023年10月26日 18:36▼返信
※130
義妹がSNSや留守番電話に載せていた音声を使ってAIが義妹の声マネして
ツイ主にオレオレ詐欺の電話してきたって話だと思う
でもツイ主の電話番号まで流出した経緯は不明
140.はちまき名無しさん投稿日:2023年10月26日 18:49▼返信
よくわからんけど
AIに好きな声優の声覚えさせて
好きなセリフ言わせられるって事でいいのかな
やり方教えてください
141.はちまき名無しさん投稿日:2023年10月26日 18:53▼返信
>>140
馬鹿が悪用するから誰も教えないのでは?
これ悪用されまくると証言証拠とか証拠として使えなくなりそう
142.はちまき名無しさん投稿日:2023年10月26日 18:53▼返信
昨日カナダから着信あったな・・・もしや・・・
143.はちまき名無しさん投稿日:2023年10月26日 18:56▼返信
音声から個人情報抜かれる時代になったか
144.はちまき名無しさん投稿日:2023年10月26日 18:57▼返信
>>127
お前みたいなAI絵師あたりを批判する記事のほうが伸びると思うで
145.はちまき名無しさん投稿日:2023年10月26日 18:58▼返信
この事件のなにがヤバイかって言うと家族構成バレてて妹の声も取られてる点ですね
犯人が焦らずに事前に電話番号変えたとか妹の声で言っていたら犯行が防げなかった
真面目に規制とかしないとヤバイ
口約束も契約的な感じでボイスレコーダとかで契約偽造とかもできそう
146.はちまき名無しさん投稿日:2023年10月26日 19:03▼返信
誰でもAI使えるんだからそりゃ犯罪にも利用されるわな
147.はちまき名無しさん投稿日:2023年10月26日 19:13▼返信
>>15
海外から電話かけてるの相手なんだから
相手の電話料が高額になるだけじゃね

受けた側に高額請求とかあるんか?
148.はちまき名無しさん投稿日:2023年10月26日 19:15▼返信
>>140
やり方は知らんけど既にYouTubeにいくつも上がってるし
一般人でも普通に出来るんじゃね
149.はちまき名無しさん投稿日:2023年10月26日 20:54▼返信
>>92
そもそも留守番に自分の名前を吹き込むな、と。名前を知られなければ電話がかかってくることもなかった。
150.はちまき名無しさん投稿日:2023年10月26日 20:56▼返信
>>2
既に身内になりすました詐欺電話があると注意喚起されてるで?
151.はちまき名無しさん投稿日:2023年10月26日 20:57▼返信
我が声を聴いた者は2時間後に心停止する。
精々、我が声を利用しないように気を付けることだな。
152.はちまき名無しさん投稿日:2023年10月26日 21:10▼返信
そもそも電話先の音声は相手の生声じゃねえからな
生声を機械音声で似せて変換してるだけだし
153.はちまき名無しさん投稿日:2023年10月26日 21:29▼返信
うちにもオレオレ詐欺電話きたけど、実妹が私に対して必ず「私だけどー」から通話に入るのに「もしもし」と来たので適当にあしらってる最中に別のスマホで本人にラインで電話してるか聞いたらそんな事無くて旦那の実家で宴会中だったので詐欺の相手してるの馬鹿らしくなって大笑いして馬鹿にして切ったら二度と掛かってこんかった
154.はちまき名無しさん投稿日:2023年10月26日 22:16▼返信
詐欺を厳罰にすればよくね(´Д`)
懲役50年とか
155.はちまき名無しさん投稿日:2023年10月26日 22:56▼返信
そもそも電話の声は合成音声だから騙しやすい
156.はちまき名無しさん投稿日:2023年10月26日 23:36▼返信
もう詐欺師働いてる奴らは根こそぎ捕まえて全員死刑にしろよ
マジできっちり世の中を浄化してほしいわ
157.はちまき名無しさん投稿日:2023年10月27日 00:14▼返信
>>1
こういう技術を知った矢先に思いついた嘘

つまり……ペロッ ……嘘松
158.はちまき名無しさん投稿日:2023年10月27日 00:45▼返信
コメント見るとAI合成音声(初音ミク)とAIボイスチェンジャー(声が変わるガス)がごっちゃになってる人がいるな
これは高度なボイスチェンジャー、コナン君や赤井さんが使ってるのと近い
159.はちまき名無しさん投稿日:2023年10月27日 00:49▼返信
高度な物真似であってしゃべってるのは生身の人間だからすぐ信じずお互いしか知りえないことを確認したりすればボロがでる
とにもかくにも電話やメールだけで送金しないことだな
160.はちまき名無しさん投稿日:2023年10月27日 01:46▼返信
AI松に騙されてるやつ多すぎ
161.はちまき名無しさん投稿日:2023年10月27日 09:36▼返信
特定の人物の声を真似するAIってさ、解析してデータベース化するのに
そこそこのパソコンで一人分で何時間もかかるんだよ、今でもさ
それを毎日何百件も無差別に電話してる犯罪者側が使ってくると思う?
ホントバカだな、現実的にものを考えられないここの連中って
162.はちまき名無しさん投稿日:2023年10月27日 09:39▼返信
※138
これでだまされてるおまえが詐欺られる側だぞ
どうやってAIが個人の声を再現するかをまず調べて来いよ
数行の最近知った聞きかじりの知識を信じちゃうとか超カモだよおまえはww
163.はちまき名無しさん投稿日:2023年10月27日 10:10▼返信
海外では実際にこの手の事件が怒ってるけど
これはその後のフォロワーとのキモいやり取り見る限りAI松だな

直近のコメント数ランキング