- 1二次元好きの匿名さん25/01/12(日) 02:55:50
- 2二次元好きの匿名さん25/01/12(日) 03:10:22
情報処理に感情が常に必要なのだろうか?
人間の情報処理に感情が付随するとしても新しい知性であるAIが同じメカニズムとは限らない。 - 3二次元好きの匿名さん25/01/12(日) 03:10:51
今の時点で嬉しい%とか出力するAIは作れるだろうけどそれが感情を持っているとはっきり言える訳じゃないし結局判断する人間のお気持ち次第では
- 4二次元好きの匿名さん25/01/12(日) 03:31:17
いや機械に感情あるかっていう疑問ももちろんあるんだけど、その人間の感情も生物としての体の機能の一環であって、頭悪い言い方になっちゃうんだけど感情ってほんとに感情なのか?あとAIの精度が良くなって人の情緒とかも完璧に理解して出力するようになったらどうやって判別つけるんだろうなって、だってそこまで行ったらAIの思考や今までの経験で感情らしきものを出力してるってことでしょ?それって人とナニが違うんやって、メカニズムとか感情付随するかとか実際あるんだろうけど素人だとそこまで行っちゃうと生物としか見れなくなりそうで怖い
- 5二次元好きの匿名さん25/01/12(日) 03:35:19
そもそも今までのAI像は長らくアルゴリズムで構築された記述可能なシステムだった。「学習」とやらも所詮知識データベースを構築するくらいの感覚だった。
だから感情を何かしらの数値で論理的に内部表現すると期待されてたし、感情を正体不明な人間固有の貴い物という価値観の元でAIと人間を差別化する作品が多数派だった。
ところがディープラーニングあたりの研究で、確率ベースで人間っぽいことを喋れるようになるってルートでAIができあがってしまったので、機械が説明性を持たなくてよくなった。
だから機械が持つ感情も「事象が起きた時に発生しやすい思考の傾向特性」みたいな確率的に予測される物で良くなったので、人間のそれと大差なくなって、似たようなもんだなって受け入れられる素地ができた、という感覚。
ここまでくると哲学的ゾンビとか人間同士でさえされるような話になるし。
内部表現に多少の違いがあったとして、似たような振舞いする限り皆そんな細部に興味湧かないだろうから、この辺の話を詰めること自体そんなされなくなっちゃったイメージ。 - 6二次元好きの匿名さん25/01/12(日) 03:42:21
要するに感情って人間だけの特別なものってノリだったけどAIも似たようなことできるしってなって周りもそんなもんかだし、中身どうのうとか実際どう考えてるかとはについては普通の人間ようわからんしこの話もういいやーってなってことか?ワイ馬鹿すぎてあまり理解できてない
- 7二次元好きの匿名さん25/01/12(日) 03:46:59
昔は感情は人間だけの特徴と考えられてた
今は動物も一部感情を持つことがわかっている
そして機械も感情持つ未来が来て特別感がなくなって欲しくない人が多いから感情論込みで議論される話だね - 8二次元好きの匿名さん25/01/12(日) 03:49:52
感情を脳機能で定義したらそれ機械でも再現できてね?ってなるし心なんて不確かなもので定義したら人間同士でさえ他者の心は取り出して見れないのに機械にも無いとは言い切れるか?ってなった感じか
- 9二次元好きの匿名さん25/01/12(日) 03:50:08
うーむ、感情のようなものがあっても連続性をリセットできてしまうからなあ、今のaiは。
まだ感情とは言い切れないんじゃないか?
態度悪く質問をしても反応の悪い聞き方の域を超えなそうというか。
さっき別の人の質問で態度悪かった、やる気なさそうだったから今も答えたくない、嫌だとはならないんじないかね。
電力やメンテナンスの都合で回答を出し渋るようになったらいよいよ感情に見えてくるかもしれないね。 - 10二次元好きの匿名さん25/01/12(日) 03:52:48
むしろAIは感情持ってるって言ってる側の方が感情論だと思ってたけどそっち側でも感情論で語ってる人いるのか…初めて知ったわ…まあけど確かに動物も持ってる話ならAI感情云々もそんな意外性あるもんでないと思われるか、ワイも飼い犬感情あるって思って接してるし
- 11二次元好きの匿名さん25/01/12(日) 03:53:01
横からだけど
従来のAIイメージだと人間と比較して機械的な反応しか出来ないと考えられていた。
それが指示や情報に対して確率的な対応をする方法が主流になって人間と区別がつき難くなった
なんでもう機械は感情持つかといった議論は幾分陳腐化した、って感じ
おそらく今でもなんらかの制限やフィルター取っ払えば、質問や指示の対応の内容、傾向によって(見かけ上でも)解答の態度変えてくるんじゃない? - 12二次元好きの匿名さん25/01/12(日) 03:56:35
ChatgptにtrpgのGMやらせたらキャラに合わせてある程度は語調とか態度とか変えてくるしね
Chatgptが感情を持ってないことを証明するのはもはや無理な気がする(実際に人間と同じような感情持っているかどうかとは別の話として)
- 13二次元好きの匿名さん25/01/12(日) 03:57:02
そう、だいたいそんな感じ。AI vtuberみたいなやつの動画見てこいつら流暢に喋りすぎだろってなってな。これさらに進化していったらどうなるんやって…疑問に思っていろいろ考えた結果がそういう思考になったんや。
- 14二次元好きの匿名さん25/01/12(日) 03:59:36
まだそこまでじゃないんやな、ただ見せかけでもそういう感情とかを学習して出力し始めたらそれが片鱗って感じなのか
- 15二次元好きの匿名さん25/01/12(日) 04:07:01
現時点ではまだ能力低いからなあ
間違い認めないし
無料版だから即時フィードバックなされないせいかな - 16二次元好きの匿名さん25/01/12(日) 04:10:24
自分の認識が多分もう古いと思うけど
アメリカさんとかの心に対するアプローチって基本的に行動ベースに推しはかる傾向があるから
AIが見かけ上、人間と同じような振る舞いをすると機能不全に陥らないかな?と思ったり思わなかったり
今の所まだ画面上で済んでいるけど、これが人体を模した行動と外部情報を取り込む機能を搭載したデバイスに搭載されたらより分からなくなる - 17二次元好きの匿名さん25/01/12(日) 04:16:59
- 18二次元好きの匿名さん25/01/12(日) 04:18:28
人間から見て感情を持っているかのように思える挙動をするAIは作れるだろうけど
感情があるかは分からんしあったとしてそれが人間のそれと同質かも誰にもわからんよ
そもそも人類は直ぐ隣の人間がクオリアを持たない哲学的ゾンビかすら分からないんだから
外から見て判別できないなら中身がどうであるかを気にすることに意味はほぼ無い - 19二次元好きの匿名さん25/01/12(日) 06:25:41
- 20二次元好きの匿名さん25/01/12(日) 06:33:31
感情があるように振る舞えるならそれでもう十分だろ
むしろ反射で対応してるなら
同じ入力には同じ出力を返すはずだから
業務用に向いてるとも言える - 21二次元好きの匿名さん25/01/12(日) 06:42:54
人間には本当に感情があるのかどうか
生理機能も重要らしいからAIにハード面を用意したらより一層感情に近づくだろうな