画像提供した人は刑事ドラマで写真を鮮明にするやつみたいな感覚でやったんだろうか。
まあ共同だし
『同館の協力者が監視カメラの動画から切り出した画像を基に、生成AIの「チャットGPT」に画質の向上を指示して作成したものと判明した』 『動画の一部を鮮明にしたという認識だった』 『記事そのものに誤りはない』
共同通信は以前取材された時態度が横柄だったのもあり大嫌いだがこれはAI画像を提供した屋久島うみがめ館が悪くないか 会社で取引先からこんな事されたらたまらん
加盟社の人、どこで気づいたんだろう。写真の専門家orタヌキの専門家なら、どこかに引っかかるところがあるのかな。
なるほど、支持率下げる写真か(そもそも「写真」とは?)
(鹿児島 )“NPO法人「屋久島うみがめ館」”"同館の協力者"/(この類か。https://www.sankei.com/article/20150430-ALXBP2U3IZIFJCS4LM5QD5FS6E/2/〔もちろん後で消す〕)/タヌキのウミガメへの悪影響自体は確認の由。ただ調査主体も同館
取材先から「これがその画像です」って渡されて、それが加工されたものとか、普通は思わんよな。とはいえ、今後は機械的にでも何らかのチェックを通したほうがいい時代なんだろう。
やっちゃったのは共同通信じゃなくてNPO側 よかれと思ってやったっぽい
環境省もこの画像使って内部で議論して政策提言してそう
あー鮮明化か。仕組みがよくわからない人は単なる鮮明化としか思わないだろうからこういうやらかしは今後も増えていきそう
流石に被害者だろ…
タヌキの顔の模様は正しいっぽいの偉い。
うみがめ館も善意でやったんだろうしな。いろいろ難しくなったね
「AIで作った画像」ではなく、「不鮮明な画像をAIで補完したもの」か。最近はスマホの写真や証明写真も勝手に加工されるから困ったものだ
鮮明化じゃなくて別もんだな
ChatGPT製は電子透かしが入ってるからそれでチェックして見つかったのかな。だとすると共同通信はそういうチェックすらしてないの?
『生成AIの「チャットGPT」に画質の向上を指示して作成した』コントラスト調整などとはレベルが違った
iPhoneで撮った写真と同じアレ
共同えらいな
オールドメディアの凋落が激しい
これはウサギのしわざ
上の写真の方がいいのに
「記事そのものに誤りはない」は言い訳としてよくないな。写真という一次ソースが虚偽であったことで記事自体の真実性にも疑問が生じてしまう。
この2枚を併記とかならわかるが(それでも少し盛ってる感はあるが)
写真技術の前のエッチング挿し絵の時代に戻ったな。
タイトルしか見ない人は本質的な勘違いをしそう。僕は見るまで起きてない事象の捏造についての記事だと思った。
普段から画像補正として使っていたら提供した人間も気付かないかもね。これからはこういうこともどんどん増えてくるか。
加盟社から「生成AIの画像ではないか」と指摘され調査したところ、同館の協力者が監視カメラの動画から切り出した画像を基に、生成AIの「チャットGPT」に画質の向上を指示して作成したものと判明した。
KYKY
鮮明な写真にしたつもりの善意の捏造画像、世界中にアホほどあるんだろうな
今なら実際のサンゴに「K・Y」って傷を付けなくても捏造報道が出来るな。良い時代になったもんだ。
言われてみればAIっぽい鮮明さになってるけど、疑いの目で見ないと気がつかないだろうな。
upscaleどこまでOKか?所謂"生成"(chatgpt)は駄目で"古典的な"学習モデルによるupscale(よく知らんがadobeにある?)はOK?え?ipjoneのカメラは???それって、サービスじゃなくてモデルの構造で判断しなきゃってこと?
人力での加工もAIでの加工も悪質さは同じだが、AIが悪者にされがち/ChatGPT使ったからバレると「生成AI」だといわれるしデキもよくないけど、PhotoshopのAIで画像解像度を上げる機能なら「生成AI」とは言われなさそう
“同館の協力者が監視カメラの動画から切り出した画像を基に、生成AIの「チャットGPT」に画質の向上を指示して作成したもの”生成AIとアップスケーリングを誤解してたのだろうか。
悪意があったわけではなく、技術に疎い人がAIに画像の鮮明化を頼んだのか。よく見れば全然違うんだけどな。老眼だと気づかない?
釣られてて草
adobeでの編集ならいいのか?
一般の職場、MSOfficeはあるけど画像処理ソフトはなくてみたいなところにChatGPTが入ってきて、簡単に画像加工編集できるツールみたいな感じになってそうな感じありそうな
"社内指針で「報道用の写真、グラフィックス、動画、音声作成に生成AIを原則使用しない」と定めている" つい先日猟友会に出動拒否された北海道の町小学校校門に熊2体が居座る生成AI動画を作ってるヤツがいたしな…
監視カメラ風の画像にするから問題なので、宮崎アニメ風イラストにしておけばよかったのに。
鮮明化でなく元映像を元にAIで生成した画像。カラパイアでも生成AIの動物動画に騙された記事掲載→ビーバーが巨大な木を運ぶため道路を横切り、交通渋滞が発生 | カラパイア https://karapaia.com/archives/562138.html
ういろう通信も被害者ではある。提供写真の真偽判断は難儀になっていくだろうしな。しかし「同社は記事そのものに誤りはない」は違うわ。写真もソースの一部やん。そういう体質なんだなって思われてる時代やぞ。
“同館の協力者が監視カメラの動画から切り出した画像を基に” 画質が悪かったので…とのことだけど、写真である意味、生成AIである意味が整理できてない人が使うとそうなるなと
まぁ顔面をフィルター詐称してるのが普通になってきてる世代の人間からしたら、これは普通に写真綺麗にしただけじゃん!!!ってなるのかもね…
これはいけない よくわかったな
安易に誰かを責めるべきではないよ。良かれと思っての過失だろうし、何か重大な事案に発展したわけでもない。組織の信頼の傷つきを気にすべきは当事者であって、外部者が便乗して叩くようなことではない。
画像提供したNPO法人がAI加工した画像を渡した、見栄えを良くしようとAIに任せたら、元の画像を改変しちゃったと。意図的だろうとなかろうと今後も同様のことが、「AIが勝手にやった」ことが沢山起こるだろうな。
画素補間やら補正の範疇ならともかくコレだと流石に報道としてはイカンでしょうな。AI使ったノイズリダクションとかならセーフだったろうに
安易でしたね。AIとの正しい付き合い方を社会全体で学んでいくフェーズにあると思うので、こういう人が出ること自体は一定やむなしだし、ちゃんと怒られつつ怒られた事実を広めてゆくしかない
これは、「うちは事実をちゃんとつたえます」アピールでしかない
いつものオールドメディアでは
これはかなり大問題では。然るべき対応をすべき。
「同館の協力者が監視カメラの動画から切り出した画像を基に、生成AIの「チャットGPT」に画質の向上を指示して作成したものと判明した」
そういうチェックなんて簡単にできるのに何でしてないんだ
こういう事例がどんどん発生するだろうなと予想。関係各位がリテラシー高めていく他ないと思う。
加工がしたいならAI加工ソフトを使うべきだった。
画像の提供元が正規の団体なら出自は疑わないよな… / 共同と見れば袈裟まで憎むようなコメがいくつかあるが、だいぶ病的に思える
タヌキさん、AIに騙されたにゃ?ボクならもっと可愛いカメさん見つけてくるのににゃ!
誰でも使えるツールになってしまった以上は、リテラシーの低さからくるトラブルはこれからいっぱい出てくるだろうね。この先刻まれる歴史は未来では、無価値とされているかもしれないね。
使う人間側の知能と倫理観が低すぎるよ…
プロンプトをもうちょっと工夫して、タヌキの足の向きと子ガメの向きが同じだったらバレなかったヤバ案件。
報道写真加工用には専用ツールを自前で持つとかになるのかな
っていうかもしかしたらこれからも報道で「事実」として報道されてきた写真の中にも、「わかりやすくするため」ということで加工された写真があった可能性を感じさせないか? まあフォトレタッチまではセーフかな。
一般人のスマホ写真をニュースにそのまま採用したケースは、今までどういう扱いになってたんだろ。スマホカメラに生成AI機能の本格実装が始まれば、採用不可になるんだろうか。
元の監視カメラ写真、やっぱインパクトが弱い。我々は報道写真に「映え」を求めているんで、映えが加工させた
NPOが「こういう問題があってこういった写真もあるので使ってください」と言ってきて記事にしたら生成AI製だったと。共同通信よりNPOを責めるべきでしょ、
記事を読んでないor読めないコメントが多いな(スターも)
誰も責めるべき問題ではないでしょ。生成AIが普及している途中の不幸な事故だよ。生成AIがどういうものか浸透してくるまでの一時的な混乱だよ。
“記事は同省が調査に乗り出したとする内容で、同社は記事そのものに誤りはないとしている。” これって「文章の方は本当ですよ」って断り入れてるだけだと思うけど、ここ叩いてる人は悪意で解釈しすぎじゃない?
無加工写真を提供するように言うもんじゃないの?
デマの共同通信はやるね
「報道用の写真、グラフィックス、動画、音声作成に生成AIを原則使用しない」「動画の一部を鮮明にしたという認識だったが、タヌキの足や子ガメの向きが動画と異なる画像になっていた。安易だった」
既に動画ですら見分けがつかなくなったので、激増して誰も気にもとめなくなっていきそう(情報の価値が無くなる)
超解像ズームなんて結構前からAIベースだし、高感度NRもAIベースになって性能が一気に良くなった。特にスマホカメラだとそうとは知らずに使われてることあって、「読者提供」素材はそっちの方が多くなるんじゃないか。
NPOさぁー。イメージどんどん悪くなるよ
>屋久島うみがめ館の上田博文代表理事(60)は読売新聞の取材に、「動画の一部を鮮明にしたという認識だったが、タヌキの足や子ガメの向きが動画と異なる画像になっていた。安易だった」と釈明した。
報道機関に提供する写真に C2PA署名が必須の時代が来る。ニコンが出だしで躓いてて、ちょっと心配だが。https://www.dpreview.com/articles/2726484621/nikon-z6iii-content-credentials-c2pa-forgery
画像はイメージです、ってレベルの違いやな…
これは画像の加工や補正、あるいは鮮明化と言われるものではない。生成であり再構成であり、ニュースとしてはフェイクだ。"くわえている子ガメの向きが違っており" タヌキの脚の位置も顔の向きも違う。うみがめ館…。
この赤外線カメラでこんなに砂はきれいに映らんかな。
ありゃ、NPO法人「屋久島うみがめ館」から提供された写真か。うみがめ館・代表理事「動画の一部を鮮明にしたという認識だったが、タヌキの足や子ガメの向きが動画と異なる画像になっていた。安易だった」確かに。
共同通信がやらかしたというより、もともと提供されたのが生成AI画像だったという。こんなメディア対応されてはたまらないなあ…
なるほど、提供元のNPO自体も単なる「鮮明化」だと思ってたってことか/よくある刑事ドラマの監視カメラ映像鮮明化謎技術みたいなノリ/同じコメントあった
ほぼ捏造。
"だとすると共同通信はそういうチェックすらしてないの" 普通に考えてするわけないだろ出自がはっきりしてるものに対して
使用しない方針ガン無視で作業してるのが杜撰すぎる
報道以外でも画質向上させるつもりで、あるいはただ写真を撮っただけでAI加工になってしまうことがこれから増えそう
解像度上げてやる(捏造)
捏造通信社
某宗教といい「鮮明」って言葉がネガティブな意味になりそう
顔の向きやら足の位置とかもう色々変わってる
映画やテレビドラマでよくある監視カメラの映像を謎技術で精彩化するやつぐらいの感覚でやっちゃったのか
監視カメラの映像をChatGPTに「鮮明化」させてしまった結果、細部が本来の画像と変わってしまったと…。/しかし、スマホの写真も、勝手にAIが補正したりしてるよね。「読者より提供」の写真とかどうなんだろう。
まあこういうことも起きるか。写真のモノクロ化とかはPythonスクリプト組んでやってくれたりするから、精細化もプロンプトの出し方次第で生成じゃなくてフィルタにするのはできそう。
写真は捏造だが事象は捏造ではない案件っぽい。ところで、屋久島においてタヌキが生まれたてのウミガメを捕食していたというのは、昔からあったことのような気もする。
これは加工した写真を提供したNPOのほうに責任があると思う。
“10月24日に加盟社から「生成AIの画像ではないか」と指摘され調査した”
生成AIが偽情報を作る→メディアが気づかず取り上げる→生成AIがそれを学習し劣化する… 最終的に劣化が進んで情報の精度が崩壊しそう
https://wanderlog.com/view/pozncqmpxd/coinbase-transaction-reversal/shared
今後もこんな感じのが増えるだろうな。そのくらいAIが身近になったことでもあるけど
https://wanderlog.com/view/kqvypltxca/crypto-rescue/shared
うみがめ館の理事氏は未だ「タヌキの足や子ガメの向き」が元と合っていれば良かったと認識している可能性が有る。畑違いだろうし、基本的な部分から理解が違っているのだと思う。
“画像はウミガメの保護に取り組むNPO法人「屋久島うみがめ館」から提供を受けて加盟社に配信し、複数の新聞社が掲載した。 10月24日に加盟社から「生成AIの画像ではないか」と指摘され調査したところ”
記事(厳密には、発生した事実を表現する場面)に関しては、生成AIを使ってほしくないかなー。生成AIに関する記事なら別だけど。配信社は、全記事に生成AIチェッカーを使ってほしい。#生成AI #共同通信社 #ChatGPT
そもそも画質の向上を指示した御仁は、この画像を見て変だと思わなかったのかよ。咥えてるもの以外にもボディラインや頭の向きが明らかに違うだろうに。
メディアの報道は信用されてませんので、ご心配なく。
超解像処理とAI生成自体は似た処理でも、どちらも処理済みかどうかを明示しないとダメな時代。これ情報提供元NPOがやらかしたのか。事実であってもどういった処理を行なったかは明記しないとね
もはや真を写すものではないということを、常に意識しないとならない時代かあ。
“タヌキの足や子ガメの向きが動画と異なる画像になっていた”
共同通信さん、次から次へとやらかしますなー
屋久島うみがめ館がダメだろ。裏を取らない共同通信もダメだけど。
ChatGPTに指示したのが「鮮明化」だけならChatGPTも悪い。わざと指示を無視したような画像生成が多くないか
提供したうみがめ館は悪くないと思う 取材源に対して確認を徹底しなかった共同の問題 個人的にはこれが写真じゃなくイラストで生成AI作成とかの注釈が付いてたら普通に受け入れると思う
写真提供元は亀とか足の向きの違いくらいはチェックしろよとは思った。
スマホ機能のAIで100倍ズームみたいな画像を提供されるケースも増えるだろうし、どう線を引けばいいのかねえ。
「画像はウミガメの保護に取り組むNPO法人『屋久島うみがめ館』から提供を受けて加盟社に配信」このケースで共同通信を責めるのはやや酷。
これはリテラシーの問題。提供元の館も生成AIを活用したのなら言わないとダメでしょ。
STAP細胞事件が生成AI全盛の2025年に起きていたら、画像の加工の是非なんかで盛り上がっていたかもしれない。
屋久島うみがめ館「動画の一部を鮮明にしたという認識だったが、タヌキの足や子ガメの向きが動画と異なる画像になっていた。安易だった」と釈明した。
線引きは難しいけど一定以上の加工(フル生成も含め)画像を世に出すときは自動付与のタグ付けなり申告なりでわかるように法で義務づける必用があると思う
チョコプラ風に言えば素人にAI与えた結果。
これはちょっと共同通信可哀想ではあるけど、こういう事例今後もありそうだからチェック機構が絶対に必要になりそうだよなぁ…どうやってと言われるとそれもまたAI頼りになりそうだが。
“記事そのものに誤りはないとしている”ウラ取りしてないだろ。
こういう習慣がエスカレートして、フェイクニュース製造機に育っていきそうね。
仕組み知らない素人は「AIに渡したら画質上げてくれた!」って思っちゃうよなぁ。教育とリテラシーの向上の必要性がかなり上がってきている
共同通信バカじゃね?と勘違いしたが、提供元の中の人(屋久島うみがめ館)に生成AI画像を提供されていたって話か。これはさすがに共同通信が気の毒案件だった。
NPOがわざわざ写真加工してから渡すというの、動機があんまりよくわからないけど、記者さんから「この写真じゃよくわからないですねぇ、もう少しよくわかる写真ないですかぁ?」なんて圧力かけてたりしないよね?
屋久島うみがめ館の捏造でしかなく、あまりに意識が低すぎる。屋久島うみがめ館は詳細な経緯と再発防止策を公表する必要があり、それが行われるまでは、屋久島うみがめ館の発する情報を報道してはならないのでは。
共同通信、生成AIで加工の「子ガメをくわえるタヌキ」の写真を配信取り消し…加盟社の指摘で判明
画像提供した人は刑事ドラマで写真を鮮明にするやつみたいな感覚でやったんだろうか。
まあ共同だし
『同館の協力者が監視カメラの動画から切り出した画像を基に、生成AIの「チャットGPT」に画質の向上を指示して作成したものと判明した』 『動画の一部を鮮明にしたという認識だった』 『記事そのものに誤りはない』
共同通信は以前取材された時態度が横柄だったのもあり大嫌いだがこれはAI画像を提供した屋久島うみがめ館が悪くないか 会社で取引先からこんな事されたらたまらん
加盟社の人、どこで気づいたんだろう。写真の専門家orタヌキの専門家なら、どこかに引っかかるところがあるのかな。
なるほど、支持率下げる写真か(そもそも「写真」とは?)
(鹿児島 )“NPO法人「屋久島うみがめ館」”"同館の協力者"/(この類か。https://www.sankei.com/article/20150430-ALXBP2U3IZIFJCS4LM5QD5FS6E/2/〔もちろん後で消す〕)/タヌキのウミガメへの悪影響自体は確認の由。ただ調査主体も同館
取材先から「これがその画像です」って渡されて、それが加工されたものとか、普通は思わんよな。とはいえ、今後は機械的にでも何らかのチェックを通したほうがいい時代なんだろう。
やっちゃったのは共同通信じゃなくてNPO側 よかれと思ってやったっぽい
環境省もこの画像使って内部で議論して政策提言してそう
あー鮮明化か。仕組みがよくわからない人は単なる鮮明化としか思わないだろうからこういうやらかしは今後も増えていきそう
流石に被害者だろ…
タヌキの顔の模様は正しいっぽいの偉い。
うみがめ館も善意でやったんだろうしな。いろいろ難しくなったね
「AIで作った画像」ではなく、「不鮮明な画像をAIで補完したもの」か。最近はスマホの写真や証明写真も勝手に加工されるから困ったものだ
鮮明化じゃなくて別もんだな
ChatGPT製は電子透かしが入ってるからそれでチェックして見つかったのかな。だとすると共同通信はそういうチェックすらしてないの?
『生成AIの「チャットGPT」に画質の向上を指示して作成した』コントラスト調整などとはレベルが違った
iPhoneで撮った写真と同じアレ
共同えらいな
オールドメディアの凋落が激しい
これはウサギのしわざ
上の写真の方がいいのに
「記事そのものに誤りはない」は言い訳としてよくないな。写真という一次ソースが虚偽であったことで記事自体の真実性にも疑問が生じてしまう。
この2枚を併記とかならわかるが(それでも少し盛ってる感はあるが)
写真技術の前のエッチング挿し絵の時代に戻ったな。
タイトルしか見ない人は本質的な勘違いをしそう。僕は見るまで起きてない事象の捏造についての記事だと思った。
普段から画像補正として使っていたら提供した人間も気付かないかもね。これからはこういうこともどんどん増えてくるか。
加盟社から「生成AIの画像ではないか」と指摘され調査したところ、同館の協力者が監視カメラの動画から切り出した画像を基に、生成AIの「チャットGPT」に画質の向上を指示して作成したものと判明した。
KYKY
鮮明な写真にしたつもりの善意の捏造画像、世界中にアホほどあるんだろうな
今なら実際のサンゴに「K・Y」って傷を付けなくても捏造報道が出来るな。良い時代になったもんだ。
言われてみればAIっぽい鮮明さになってるけど、疑いの目で見ないと気がつかないだろうな。
upscaleどこまでOKか?所謂"生成"(chatgpt)は駄目で"古典的な"学習モデルによるupscale(よく知らんがadobeにある?)はOK?え?ipjoneのカメラは???それって、サービスじゃなくてモデルの構造で判断しなきゃってこと?
人力での加工もAIでの加工も悪質さは同じだが、AIが悪者にされがち/ChatGPT使ったからバレると「生成AI」だといわれるしデキもよくないけど、PhotoshopのAIで画像解像度を上げる機能なら「生成AI」とは言われなさそう
“同館の協力者が監視カメラの動画から切り出した画像を基に、生成AIの「チャットGPT」に画質の向上を指示して作成したもの”生成AIとアップスケーリングを誤解してたのだろうか。
悪意があったわけではなく、技術に疎い人がAIに画像の鮮明化を頼んだのか。よく見れば全然違うんだけどな。老眼だと気づかない?
釣られてて草
adobeでの編集ならいいのか?
一般の職場、MSOfficeはあるけど画像処理ソフトはなくてみたいなところにChatGPTが入ってきて、簡単に画像加工編集できるツールみたいな感じになってそうな感じありそうな
"社内指針で「報道用の写真、グラフィックス、動画、音声作成に生成AIを原則使用しない」と定めている" つい先日猟友会に出動拒否された北海道の町小学校校門に熊2体が居座る生成AI動画を作ってるヤツがいたしな…
監視カメラ風の画像にするから問題なので、宮崎アニメ風イラストにしておけばよかったのに。
鮮明化でなく元映像を元にAIで生成した画像。カラパイアでも生成AIの動物動画に騙された記事掲載→ビーバーが巨大な木を運ぶため道路を横切り、交通渋滞が発生 | カラパイア https://karapaia.com/archives/562138.html
ういろう通信も被害者ではある。提供写真の真偽判断は難儀になっていくだろうしな。しかし「同社は記事そのものに誤りはない」は違うわ。写真もソースの一部やん。そういう体質なんだなって思われてる時代やぞ。
“同館の協力者が監視カメラの動画から切り出した画像を基に” 画質が悪かったので…とのことだけど、写真である意味、生成AIである意味が整理できてない人が使うとそうなるなと
まぁ顔面をフィルター詐称してるのが普通になってきてる世代の人間からしたら、これは普通に写真綺麗にしただけじゃん!!!ってなるのかもね…
これはいけない よくわかったな
安易に誰かを責めるべきではないよ。良かれと思っての過失だろうし、何か重大な事案に発展したわけでもない。組織の信頼の傷つきを気にすべきは当事者であって、外部者が便乗して叩くようなことではない。
画像提供したNPO法人がAI加工した画像を渡した、見栄えを良くしようとAIに任せたら、元の画像を改変しちゃったと。意図的だろうとなかろうと今後も同様のことが、「AIが勝手にやった」ことが沢山起こるだろうな。
画素補間やら補正の範疇ならともかくコレだと流石に報道としてはイカンでしょうな。AI使ったノイズリダクションとかならセーフだったろうに
安易でしたね。AIとの正しい付き合い方を社会全体で学んでいくフェーズにあると思うので、こういう人が出ること自体は一定やむなしだし、ちゃんと怒られつつ怒られた事実を広めてゆくしかない
これは、「うちは事実をちゃんとつたえます」アピールでしかない
いつものオールドメディアでは
これはかなり大問題では。然るべき対応をすべき。
「同館の協力者が監視カメラの動画から切り出した画像を基に、生成AIの「チャットGPT」に画質の向上を指示して作成したものと判明した」
そういうチェックなんて簡単にできるのに何でしてないんだ
こういう事例がどんどん発生するだろうなと予想。関係各位がリテラシー高めていく他ないと思う。
加工がしたいならAI加工ソフトを使うべきだった。
画像の提供元が正規の団体なら出自は疑わないよな… / 共同と見れば袈裟まで憎むようなコメがいくつかあるが、だいぶ病的に思える
タヌキさん、AIに騙されたにゃ?ボクならもっと可愛いカメさん見つけてくるのににゃ!
誰でも使えるツールになってしまった以上は、リテラシーの低さからくるトラブルはこれからいっぱい出てくるだろうね。この先刻まれる歴史は未来では、無価値とされているかもしれないね。
使う人間側の知能と倫理観が低すぎるよ…
プロンプトをもうちょっと工夫して、タヌキの足の向きと子ガメの向きが同じだったらバレなかったヤバ案件。
報道写真加工用には専用ツールを自前で持つとかになるのかな
っていうかもしかしたらこれからも報道で「事実」として報道されてきた写真の中にも、「わかりやすくするため」ということで加工された写真があった可能性を感じさせないか? まあフォトレタッチまではセーフかな。
一般人のスマホ写真をニュースにそのまま採用したケースは、今までどういう扱いになってたんだろ。スマホカメラに生成AI機能の本格実装が始まれば、採用不可になるんだろうか。
元の監視カメラ写真、やっぱインパクトが弱い。我々は報道写真に「映え」を求めているんで、映えが加工させた
NPOが「こういう問題があってこういった写真もあるので使ってください」と言ってきて記事にしたら生成AI製だったと。共同通信よりNPOを責めるべきでしょ、
記事を読んでないor読めないコメントが多いな(スターも)
誰も責めるべき問題ではないでしょ。生成AIが普及している途中の不幸な事故だよ。生成AIがどういうものか浸透してくるまでの一時的な混乱だよ。
“記事は同省が調査に乗り出したとする内容で、同社は記事そのものに誤りはないとしている。” これって「文章の方は本当ですよ」って断り入れてるだけだと思うけど、ここ叩いてる人は悪意で解釈しすぎじゃない?
無加工写真を提供するように言うもんじゃないの?
デマの共同通信はやるね
「報道用の写真、グラフィックス、動画、音声作成に生成AIを原則使用しない」「動画の一部を鮮明にしたという認識だったが、タヌキの足や子ガメの向きが動画と異なる画像になっていた。安易だった」
既に動画ですら見分けがつかなくなったので、激増して誰も気にもとめなくなっていきそう(情報の価値が無くなる)
超解像ズームなんて結構前からAIベースだし、高感度NRもAIベースになって性能が一気に良くなった。特にスマホカメラだとそうとは知らずに使われてることあって、「読者提供」素材はそっちの方が多くなるんじゃないか。
NPOさぁー。イメージどんどん悪くなるよ
>屋久島うみがめ館の上田博文代表理事(60)は読売新聞の取材に、「動画の一部を鮮明にしたという認識だったが、タヌキの足や子ガメの向きが動画と異なる画像になっていた。安易だった」と釈明した。
報道機関に提供する写真に C2PA署名が必須の時代が来る。ニコンが出だしで躓いてて、ちょっと心配だが。https://www.dpreview.com/articles/2726484621/nikon-z6iii-content-credentials-c2pa-forgery
画像はイメージです、ってレベルの違いやな…
これは画像の加工や補正、あるいは鮮明化と言われるものではない。生成であり再構成であり、ニュースとしてはフェイクだ。"くわえている子ガメの向きが違っており" タヌキの脚の位置も顔の向きも違う。うみがめ館…。
この赤外線カメラでこんなに砂はきれいに映らんかな。
ありゃ、NPO法人「屋久島うみがめ館」から提供された写真か。うみがめ館・代表理事「動画の一部を鮮明にしたという認識だったが、タヌキの足や子ガメの向きが動画と異なる画像になっていた。安易だった」確かに。
共同通信がやらかしたというより、もともと提供されたのが生成AI画像だったという。こんなメディア対応されてはたまらないなあ…
なるほど、提供元のNPO自体も単なる「鮮明化」だと思ってたってことか/よくある刑事ドラマの監視カメラ映像鮮明化謎技術みたいなノリ/同じコメントあった
ほぼ捏造。
"だとすると共同通信はそういうチェックすらしてないの" 普通に考えてするわけないだろ出自がはっきりしてるものに対して
使用しない方針ガン無視で作業してるのが杜撰すぎる
報道以外でも画質向上させるつもりで、あるいはただ写真を撮っただけでAI加工になってしまうことがこれから増えそう
解像度上げてやる(捏造)
捏造通信社
某宗教といい「鮮明」って言葉がネガティブな意味になりそう
顔の向きやら足の位置とかもう色々変わってる
映画やテレビドラマでよくある監視カメラの映像を謎技術で精彩化するやつぐらいの感覚でやっちゃったのか
監視カメラの映像をChatGPTに「鮮明化」させてしまった結果、細部が本来の画像と変わってしまったと…。/しかし、スマホの写真も、勝手にAIが補正したりしてるよね。「読者より提供」の写真とかどうなんだろう。
まあこういうことも起きるか。写真のモノクロ化とかはPythonスクリプト組んでやってくれたりするから、精細化もプロンプトの出し方次第で生成じゃなくてフィルタにするのはできそう。
写真は捏造だが事象は捏造ではない案件っぽい。ところで、屋久島においてタヌキが生まれたてのウミガメを捕食していたというのは、昔からあったことのような気もする。
これは加工した写真を提供したNPOのほうに責任があると思う。
“10月24日に加盟社から「生成AIの画像ではないか」と指摘され調査した”
生成AIが偽情報を作る→メディアが気づかず取り上げる→生成AIがそれを学習し劣化する… 最終的に劣化が進んで情報の精度が崩壊しそう
https://wanderlog.com/view/pozncqmpxd/coinbase-transaction-reversal/shared
https://wanderlog.com/view/pozncqmpxd/coinbase-transaction-reversal/shared
https://wanderlog.com/view/pozncqmpxd/coinbase-transaction-reversal/shared
今後もこんな感じのが増えるだろうな。そのくらいAIが身近になったことでもあるけど
https://wanderlog.com/view/pozncqmpxd/coinbase-transaction-reversal/shared
https://wanderlog.com/view/pozncqmpxd/coinbase-transaction-reversal/shared
https://wanderlog.com/view/kqvypltxca/crypto-rescue/shared
うみがめ館の理事氏は未だ「タヌキの足や子ガメの向き」が元と合っていれば良かったと認識している可能性が有る。畑違いだろうし、基本的な部分から理解が違っているのだと思う。
“画像はウミガメの保護に取り組むNPO法人「屋久島うみがめ館」から提供を受けて加盟社に配信し、複数の新聞社が掲載した。 10月24日に加盟社から「生成AIの画像ではないか」と指摘され調査したところ”
記事(厳密には、発生した事実を表現する場面)に関しては、生成AIを使ってほしくないかなー。生成AIに関する記事なら別だけど。配信社は、全記事に生成AIチェッカーを使ってほしい。#生成AI #共同通信社 #ChatGPT
そもそも画質の向上を指示した御仁は、この画像を見て変だと思わなかったのかよ。咥えてるもの以外にもボディラインや頭の向きが明らかに違うだろうに。
メディアの報道は信用されてませんので、ご心配なく。
超解像処理とAI生成自体は似た処理でも、どちらも処理済みかどうかを明示しないとダメな時代。これ情報提供元NPOがやらかしたのか。事実であってもどういった処理を行なったかは明記しないとね
もはや真を写すものではないということを、常に意識しないとならない時代かあ。
“タヌキの足や子ガメの向きが動画と異なる画像になっていた”
共同通信さん、次から次へとやらかしますなー
屋久島うみがめ館がダメだろ。裏を取らない共同通信もダメだけど。
ChatGPTに指示したのが「鮮明化」だけならChatGPTも悪い。わざと指示を無視したような画像生成が多くないか
提供したうみがめ館は悪くないと思う 取材源に対して確認を徹底しなかった共同の問題 個人的にはこれが写真じゃなくイラストで生成AI作成とかの注釈が付いてたら普通に受け入れると思う
写真提供元は亀とか足の向きの違いくらいはチェックしろよとは思った。
スマホ機能のAIで100倍ズームみたいな画像を提供されるケースも増えるだろうし、どう線を引けばいいのかねえ。
「画像はウミガメの保護に取り組むNPO法人『屋久島うみがめ館』から提供を受けて加盟社に配信」このケースで共同通信を責めるのはやや酷。
これはリテラシーの問題。提供元の館も生成AIを活用したのなら言わないとダメでしょ。
STAP細胞事件が生成AI全盛の2025年に起きていたら、画像の加工の是非なんかで盛り上がっていたかもしれない。
屋久島うみがめ館「動画の一部を鮮明にしたという認識だったが、タヌキの足や子ガメの向きが動画と異なる画像になっていた。安易だった」と釈明した。
線引きは難しいけど一定以上の加工(フル生成も含め)画像を世に出すときは自動付与のタグ付けなり申告なりでわかるように法で義務づける必用があると思う
チョコプラ風に言えば素人にAI与えた結果。
これはちょっと共同通信可哀想ではあるけど、こういう事例今後もありそうだからチェック機構が絶対に必要になりそうだよなぁ…どうやってと言われるとそれもまたAI頼りになりそうだが。
“記事そのものに誤りはないとしている”ウラ取りしてないだろ。
こういう習慣がエスカレートして、フェイクニュース製造機に育っていきそうね。
仕組み知らない素人は「AIに渡したら画質上げてくれた!」って思っちゃうよなぁ。教育とリテラシーの向上の必要性がかなり上がってきている
共同通信バカじゃね?と勘違いしたが、提供元の中の人(屋久島うみがめ館)に生成AI画像を提供されていたって話か。これはさすがに共同通信が気の毒案件だった。
NPOがわざわざ写真加工してから渡すというの、動機があんまりよくわからないけど、記者さんから「この写真じゃよくわからないですねぇ、もう少しよくわかる写真ないですかぁ?」なんて圧力かけてたりしないよね?
屋久島うみがめ館の捏造でしかなく、あまりに意識が低すぎる。屋久島うみがめ館は詳細な経緯と再発防止策を公表する必要があり、それが行われるまでは、屋久島うみがめ館の発する情報を報道してはならないのでは。