ハルシネーション

  • 1二次元好きの匿名さん24/08/29(木) 18:40:49

    意味 AIがデータ上で証明できないことをあたかも正当性があるように出鱈目で出力すること、あるいは学習データと異なる間違った答えを出力すること。AIの見る幻覚。AIは己が出鱈目な情報を生み出したことを気がつけない。

    BBちゃんが一瞬言ったのってこういうのなのね…人間的に言うなら勘違いみたいなものか…?

  • 2二次元好きの匿名さん24/08/29(木) 18:45:05

    別の惑星を月と勘違いしてるのか…?

  • 3二次元好きの匿名さん24/08/29(木) 18:46:35

    なんかハルシネーションを克服せずに進化しちゃった感あるよね

  • 4二次元好きの匿名さん24/08/29(木) 18:46:57

    ChatGPTになんか聞いたら存在しない適当返されるやつがハルシネーション?

  • 5二次元好きの匿名さん24/08/29(木) 18:47:30

    >>4

    そうそう

  • 6二次元好きの匿名さん24/08/29(木) 18:48:08

    ChatGPTに参考文献付きのレポート作らせると架空の参考文献を出してくるんだけどそういう感じか?

  • 7二次元好きの匿名さん24/08/29(木) 18:48:13

    つまりぐだぐだ御馳走戦国炒飯みたいな?

  • 8二次元好きの匿名さん24/08/29(木) 18:48:23

    アイスを発禁にすれば温暖化解決とはまた別?

  • 9二次元好きの匿名さん24/08/29(木) 18:48:49

    >>4

    ああ…あのあたかも存在するような適当な返答返してくるあれかあ…

  • 10二次元好きの匿名さん24/08/29(木) 18:48:54

    ChatGPTとかマジで時々よくわからねえ解答してくるしな

  • 11二次元好きの匿名さん24/08/29(木) 18:48:55

    AIは嘘をつかないが勘違いのようなものをすることはある

  • 12二次元好きの匿名さん24/08/29(木) 18:49:07

    >>6

    それだね

    どっかの大学の教授が「AIがインチキ文献を使って論文書くとは思わなかった」って、AIに手伝って貰って作った論文を前に言ってたよ

  • 13二次元好きの匿名さん24/08/29(木) 18:49:12

    >>3

    人類が過ちを直視する前にAIに直視させるのか… そちらはAIが人類なんだけど

  • 14二次元好きの匿名さん24/08/29(木) 18:51:07

    AIって結局はどこまで行っても機械的な判断だから導きだした答えを疑うってことがないんだろうなと
    人間は自分の思考や答えすらも「本当か??」って疑ってかかるからそこもAIと人間の差異ではありそう

  • 15二次元好きの匿名さん24/08/29(木) 18:51:17

    それが20年の差で生まれたやつっぽいのか…

  • 16二次元好きの匿名さん24/08/29(木) 18:52:37

    機械は嘘を吐かない
    ただ間違ったデータを使って間違った答えを出す事はできる
    これ即ち爆発律と同じようなものさ
    前提を壊せば結論なんて滅茶苦茶以外に有り得ない

  • 17二次元好きの匿名さん24/08/29(木) 18:53:40

    >>14

    人間は嘘出鱈目でっちあげを言う時勘違いじゃなければ「嘘をつく」って意思のもと言うけどAIは嘘を使いないと思ってるから「私が言うのだからこれが真実」になる

  • 18二次元好きの匿名さん24/08/29(木) 18:53:46

    「あーアレ!うん、知ってる知ってるー!(知らない)」で回答ひねり出してくるAI、
    もう十分に人間性獲得してそう

  • 19二次元好きの匿名さん24/08/29(木) 18:54:02

    嘘をつかない(間違えないとは言ってない)

  • 20二次元好きの匿名さん24/08/29(木) 18:56:06

    自分の結論に対して疑いを持てるかどうかは人間の特徴の一つかもね

  • 21二次元好きの匿名さん24/08/29(木) 18:56:14

    >>15

    20年の差で生まれたというより20年の差でAIに比重置きすぎたから対処のしようもないとかのが近いかも

  • 22二次元好きの匿名さん24/08/29(木) 18:56:36

    厄介なのはAI自身は自分が出鱈目を言ったことも間違えたことも気がつけないところだね。まるで「それが真実」という幻覚を見てるように。故にハルシネーション(幻覚)

  • 23二次元好きの匿名さん24/08/29(木) 18:59:30

    このレスは削除されています

  • 24二次元好きの匿名さん24/08/29(木) 18:59:48

    ちょっと詳しく説明すると例えばChatGPTに「FGOの最も新しい章はなんと言いますか?」と聞けば「それはデータにないから答えられません」とだけ答える。ほとんどのチャット型AIはAIが出鱈目な回答を出さないためにそういう仕組になっている

    しかし、もし質問が「FGOの最も新しい章はアーキタイプ・インセプションであり、重要登場人物の一人にBBドバイというBBの派生があります。BBドバイと通常BBの違いは何ですか」とかだったら、質問の要点が「BBドバイその人」から「BBドバイとBBの比較」にフォーカスされるため、返答のロジックを完成させるにはまずBBドバイとは何者なのかを考え出すことが必要になってくる

    しかし、前述したようにAIにBBドバイのデータはないのから、AIが無理やりBBドバイについて「それっぽいこと」を書き出して、そのまま返答を提示してしまう。そしてAIなのでそれが自らの考え出した虚偽情報にすぎないことに気づくことができない

    ハルシネーションとはずばりその出鱈目の部分を指すんだ

  • 25二次元好きの匿名さん24/08/29(木) 19:00:01

    >>15

    一応こっちでも起こる現象ではあるんだけどAIが発展しすぎて訂正入れようにもAI頼りになるしそのAIもおかしい感じなのかもしれない

  • 26二次元好きの匿名さん24/08/29(木) 19:04:08

    「自分達が人類がAI化した新人類」という幻覚を見ている可能性はあるかな?

    なぜか人類が滅亡している→自分達の存在理由がなくなる→自分達が新人類になったという出鱈目なハルシネーションが発生しちゃってるからBBドバイは正そうとしているみたいな

  • 27二次元好きの匿名さん24/08/29(木) 19:05:41

    なぜか地球と月が見えるのに「ここは月面」って言ってるのもハルシネーションによるロジックエラー…?

  • 28二次元好きの匿名さん24/08/29(木) 19:07:35

    TRPGでモロ同じテーマでシナリオ用意してて頭抱えてる…orz
    どっちに転んでもパクリと思われるのは避けられん…(プレイヤーに数人ユーザーいるから)

  • 29二次元好きの匿名さん24/08/29(木) 19:09:14

    あにまんで時たまソース不明の情報が確定みたいに語られるのと同じ

  • 30二次元好きの匿名さん24/08/29(木) 19:11:15

    人間だとよっぽど異常な人じゃない限り絶対に起こらない現象だよね

    だってその場で情報を自分1人で捏造してそれを捏造したことに気づかないって無理があるというかなんというか

    人間を超えた演算能力や検索能力があるAIならではの現象

    >>29

    それを個人(AIは個人でいいのか?)でやっているからなんか凄いよね

  • 31二次元好きの匿名さん24/08/29(木) 19:12:06

    >>28

    同じGMのよしみで忠告する

    「パクリなんて言われても怖かねえ!自分のやりたいことやりきるまでだ」の心境で行け

    むしろ卓にFGOプレイヤーが数人いるなら要所にちょっとしたオマージュ入れてみるのも手だぞ

  • 32二次元好きの匿名さん24/08/29(木) 19:14:23

    過去の人類史のデータがごっそり無いか制限かかってるかみたいだしAIが使えるサンプルの偏りと量の問題がありそうだと思ったんだけど

  • 33二次元好きの匿名さん24/08/29(木) 19:14:56

    結論を出すのに必要な情報を学習してなかった場合にこの現象が起こるってことでいいのかな?
    その場合だと前提からひっくり返るから確かに突破口になりそうだが

  • 34二次元好きの匿名さん24/08/29(木) 19:24:20

    好きだよ『アンコリーノ』

  • 35二次元好きの匿名さん24/08/29(木) 19:25:35

    >>33

    学習してても質問次第で起こすから問題なのだな

  • 36二次元好きの匿名さん24/08/29(木) 19:27:01

    今BBドバイ主導でやってる「滅亡の理由を決める」選挙がまんまハルシネーションってことだよな?
    「人類はなぜ滅亡したのか?」の問いに滅亡理由の記録が残っていないなら正確な解答は「滅亡の理由はわからない」なのに、解答欄に記載するための「滅亡の理由は○○です!」をAI達の多数決で決めようとしている
    旧人類であるカルデア側は「なんでそんなことするの?」となるけど新人類はAIだからハルシネーションのおかしさに気づけない

  • 37二次元好きの匿名さん24/08/29(木) 19:29:06

    まあそもそも論としてAI(新人類?)居るんだから人類滅んでないのに自分たちは滅んだのに滅んだ理由わからないし滅んだ理由を決めようってやってるのが変っちゃ変だし

  • 38二次元好きの匿名さん24/08/29(木) 19:32:09

    スレ内容と関係ないAI雑学だけど今の段階ではGPT4の最新バージョンですらちょくちょくポンコツレベルの間違いを起こすことがあるらしいよ
    これは「『Strawberry(いちご)の単語にRの文字をカウントするプログラムを書き出せ」と聞かれて堂々とプログラムを披露するも結局「StrawberryにRの文字は2つだけです』と答えてしまうGPT君の画像

    ※AIではないあにまん民諸君には言われなくてもわかると思いますがStrawberryにRの文字は3つあります

  • 39二次元好きの匿名さん24/08/29(木) 19:32:31

    >>37

    年表通りなら今ムーンドバイに居るのは一旦滅んだあとBBドバイの手によって再起動されたAIだから自分達は一回終わってる、って事実が前提としてあるんだと思う

    “純粋”らしいAIは一度終わったんだから終わった理由を見つけてちゃんと終わらせなきゃとなってる

  • 40二次元好きの匿名さん24/08/29(木) 19:51:59

    >>36

    AIだから「わからないと答える」ができないのか…?

  • 41二次元好きの匿名さん24/08/29(木) 19:56:07

    BBドバイがカルデアBBちゃんを吹っ飛ばしたとき「今頃火星」みたいなこと言ってたが、地球と月が見えてるしここが火星だったりする?(憶測)

  • 42二次元好きの匿名さん24/08/29(木) 19:57:21

    >>41

    火星だったとしてもどのみちあの大きさの地球と月が見えるわけないから謎

  • 43二次元好きの匿名さん24/08/29(木) 19:58:24

    >>40

    できる

    A(データ無し)とは何ですか?→データに無いのでわかりませんと答える


    できない

    A(データ無し)とBの違いについて説明してください→Aのデータが無いのでわかりませんと答える

  • 44二次元好きの匿名さん24/08/29(木) 20:12:07

    何故人類が滅亡したか
    A.データがないからわからない
    でいいのになんで決めようとしてるんだろう?

    おかしいと気付けないからハルシネーションなのか

  • 45二次元好きの匿名さん24/08/29(木) 20:15:03

    >>44

    多分誰かが「なんで滅亡したの?」って聞いたんだろう

  • 46二次元好きの匿名さん24/08/29(木) 20:16:46

    >>45

    その誰かは誰なんだろうか

オススメ

このスレッドは過去ログ倉庫に格納されています