生成 AI で度々紛糾するが

  • 1二次元好きの匿名さん24/11/15(金) 16:33:28

    仕組みはほぼ誰も理解してないのである!!

    ……自分も大まかにしか知らんのできちんと理論と実装に踏み込みたいがいかんせん要素技術が多すぎる
    せめて拡散モデルの実装くらいは手を動かしてやってみないとなという思い

  • 2二次元好きの匿名さん24/11/15(金) 16:36:36

    意外と難しくないよ
    Python知ってるならpytorch動かしながら勉強すれば
    ふんわりとはわかるようになる

  • 3二次元好きの匿名さん24/11/15(金) 16:37:17

    問題になってるのは技術の中身じゃなくて運用の仕方なんで

  • 4124/11/15(金) 16:39:29

    >>2

    そんなもんか

    pytorch こねこねしてやってみるか

    ニューラルネットワーク自体はわかるんだけど深層学習以降手を付けてない口でね

    MNIST の手書き数字認識が精一杯

  • 5124/11/15(金) 16:40:31

    >>3

    技術をブラックボックスにして議論するとよく誤謬を持ってしまうのでそういうのは避けたい

  • 6二次元好きの匿名さん24/11/15(金) 16:41:40

    >>4

    mnistをもうやってるなら勉強すればすぐ理解できるようになるよ

    がんばれ

  • 7124/11/15(金) 16:43:49

    最終的には Stable Diffusion の論文と Glaze の論文読んで Glaze はあんま意味ないですよというのを論理立てて言えるようになりたい
    感覚的に効果はなさそうというのはわかるんだが

  • 8124/11/15(金) 16:48:40

    とりあえずゼロから作るディープラーニングはやっておくか
    以前他の言語でやろうとしたら詰まってできなかったので大人しく Python でやる

  • 9二次元好きの匿名さん24/11/15(金) 16:54:41

    データセットの中身が不明瞭だからなんとなく説明しにくいんだよな。

  • 10二次元好きの匿名さん24/11/15(金) 16:55:56

    >>7

    意味ないというか積み重ねることで生成ΑΙ学習した際にノイズ効果を出すチリツモ方式なんじゃないだろうか


    「変なの入りですよ」とか「非公式LoRA使用してますよ」みたいなアピールさせるのが精一杯ではないだろうか

  • 11124/11/15(金) 16:57:34

    >>10

    多分画風が認識できない程度のノイズいれるくらいしかできないんじゃないかな……という予想

    これも解像度あげちゃえば突破できちゃうしね

  • 12二次元好きの匿名さん24/11/15(金) 16:59:17

    >>11

    理論ではなく実証の記事で見たけど

    多少崩れるぐらいで効果は薄いようです

  • 13二次元好きの匿名さん24/11/15(金) 16:59:43
  • 14124/11/15(金) 17:02:32

    >>13

    見た見た

    でも「見た目で変わんないでしょ」って言っても納得あんま得られない気もしている

    まあ結局見た目の話なのだが

  • 15二次元好きの匿名さん24/11/15(金) 17:22:55

    このレスは削除されています

  • 16二次元好きの匿名さん24/11/15(金) 17:23:18

    学習なしのカラAIをタダで配布してるサイトねーかな~…とは思っている
    パブリックドメイン系の画像数枚放り込めば仕組みがぼんやり分かるだろうし

    個人的に一番引っかかってるのが「最初の学習に使ったデータは丸ごとコピーに当たるのではないか?」という点だし
    一度画像を覚えさせてノイズから彫刻方式で作り出してるというなおさらぼんやりした理解だからなあ…

  • 17124/11/15(金) 17:32:30

    >>16

    ブラウザ上で実行できるおもちゃみたいな奴あってもいいかもね

  • 18二次元好きの匿名さん24/11/15(金) 18:00:25

    >>11

    ノイズを消して絵を作るシステム対策にノイズ入れるの火を消すために火をつけるみたいな感覚になるんだよな

  • 19二次元好きの匿名さん24/11/15(金) 18:03:30

    >>18

    ノイズというよりは2つの画像を重ねているように見せかけているというイメージな気がする

  • 20124/11/15(金) 19:11:34

    >>19

    なるほどなあ

    画像って縮小したりブロックに分けて学習したりするから効きそうではある

  • 21二次元好きの匿名さん24/11/15(金) 19:31:20

    AIって人間からはわからないブラックボックスが生まれるものじゃないの?

  • 22二次元好きの匿名さん24/11/15(金) 19:34:59
  • 23124/11/15(金) 19:35:00

    >>21

    そんなことはない

    仕組みわからないんだったらそもそも実装はできないよ

  • 24二次元好きの匿名さん24/11/15(金) 19:36:12

    AIの判定条件が全て分かるなら
    それはAIなのか?

  • 25二次元好きの匿名さん24/11/15(金) 19:36:46

    このレスは削除されています

  • 26二次元好きの匿名さん24/11/15(金) 19:37:16

    自分の絵を素材にAI生成はやってみたいが数足りないか

  • 27124/11/15(金) 19:37:21

    >>24

    ミクロの動きはわかるけどそれを組み合わせていってできるカオスは解析できないって感じかな

  • 28124/11/15(金) 19:38:13

    >>26

    Lora の追加学習だったら 30 枚くらいで行けると聞いた

  • 29二次元好きの匿名さん24/11/15(金) 19:48:29

    >>23

    もちろん学習させるのは人間だし、学習の設定をするのも人間だから、そこまではわかるだろうけど、学習結果のアウトプットの根拠ははっきりしないんじゃなかったっけ

    冪等性も担保しにくいとか聞く

    あんまり詳しくないけど

  • 30124/11/15(金) 19:50:05

    >>29

    それはそうね

    そんでもって >>27 な感じだと思う

    量子力学と古典物理学はわかるんだけどその間が解決してないのとにてるのかな

  • 31二次元好きの匿名さん24/11/15(金) 19:52:47

    法整備しろとはよく言われているが、どういう法やねんってよくわかってない

  • 32二次元好きの匿名さん24/11/15(金) 20:01:05

    学習前のニューラルネットワークってのは何十何百のランダムな数値の行列みたいなもので、
    学習データを何かしらの方法でベクトルにして、ベクトルに行列を全部掛けて正解のベクトルと同じになるように行列の各要素を調節する、っていう作業がよく言われる学習
    根拠がわからないっていうのは行列の要素の調節が一通りではないから。
    もし一つの行列でベクトルを変換するなら解は1通りだけど何十何百という数の行列なら解はとてつもない自由度を持っていて、その自由度の中で上手くいっている、ということしか人間にはわからない

  • 33二次元好きの匿名さん24/11/15(金) 20:04:22

    単一行列で変換しても解は一通りじゃないか
    ごめんぼんやりとしたイメージだったわ

  • 34二次元好きの匿名さん24/11/15(金) 20:15:18

    >>29

    冪等性を担保しにくいというか、学習過程でランダマイズするから同じ条件でも毎回結果は変わる

    学習データをシャッフルしたりステップによって重み変えたり

  • 35二次元好きの匿名さん24/11/15(金) 20:17:17

    ウォーターマークは効果薄いよ!って流れみたいだけど例えば今の文字が中心のウォーターマークに意味がないとしても、ゲイビとかデカいtntnみたいなAI画像生成者が嫌がりそうな画像を透かしにしたら生成画像に影響って出るのかな?

  • 36124/11/15(金) 20:19:14

    >>35

    感覚だけど厳しいでしょ

    それをやるためにはみんなおんなじ透かし入れないと意味ない気がするし、でもおんなじ透かしなら前処理で取り除けるし……

  • 37二次元好きの匿名さん24/11/15(金) 20:21:57

    実際AIがどんなものなのかもわかってない中で争うから混沌化してる所あるよなあ…

  • 38二次元好きの匿名さん24/11/15(金) 20:22:55

    そりゃあ使われる人は使ってる人より疎いだろうよ
    当然の話だ

  • 39124/11/15(金) 20:23:57

    >>37

    そうなのよね

    擁護側も反対派も仕組みはほとんどわかっとらんやんという感じで

    自分も画像にノイズ加えて逆過程を学習して〜くらいの曖昧な説明しかできないからしっかり学んでいこうという感じ

  • 40二次元好きの匿名さん24/11/15(金) 20:29:53

    ≻≻35
    皆がやれば効果あるかも?ってことは大雑把に美少女の画像を生成してる人たちには効果薄いけど特定の絵師に粘着してその絵師の絵柄を生成するために学習モデルに大量に読み込ませるような輩には効果あるってこと?
    同じ画像使ったら簡単に取り除かれるっていうけどそれが登校前に撮った投稿者のtntn(画像米に角度は変えてる)とかだったら簡単に取り除けないとかできそうじゃね

  • 41124/11/15(金) 20:31:57

    >>40

    角度変えてたら結局透かしに現れない単なるノイズにしかならなさそうだからね

    単一の画像でないと多分意味がない

    そして単一の画像だったら前処理で弾けるという

  • 42二次元好きの匿名さん24/11/15(金) 20:40:07

    >>41

    なるほど。

    正直剥がし無効やノイズ以下まで効果を下げれるようなウォーターマークが出るとは思えないから文言を無断転載反対だのAI反対だのじゃなくて「学習lolとしての使用が確認された場合生成者に●万円請求いたします」って形にした方がいいのかな。

    ポーズやキャラ程度じゃ効果薄くても絵柄読み込みで嫌がらせする輩を法廷に出すくらいは効かないかな?

  • 43124/11/15(金) 20:42:06

    >>42

    それは確実に効かない

    というか生成 AI の学習って切り貼りでは無いのでどの画像を学習させたのかなんてわからんて

  • 44二次元好きの匿名さん24/11/15(金) 20:51:38

    >>43

    ノイズとして文言を生成画像に出現させたいって意味じゃなくて、例えば某月の社長絵とか某神主の絵を本物そっくりに生成したとして明らかな絵柄の類似性が認められた場合元の作者の絵にこの文が描かれてたら著作権法とかで訴えられないの?っていう。

    そりゃ大雑把にきれいな絵が欲しくて生成させた絵は学習元分からないだろうけど上に貼ってあったサイトみたいに特定の絵柄を出すために意図的に食わせたら当然ログは残るし更に>>42の文句書いてたらそれをもとに訴えれそうだけどできんのか?

  • 45124/11/15(金) 20:54:08

    >>44

    法律の専門家でないからそこは断言できないけどそもそもその文句自体が効果無いんじゃないかなって

    「セールスマンお断り」の家にセールスマン訪ねて訴えられるかって話……なんだろうか

    法律も学ばないとダメね

  • 46二次元好きの匿名さん24/11/15(金) 20:56:00

    このレスは削除されています

  • 47124/11/15(金) 20:56:43

    >>44

    ちなみに絵柄は著作権法で訴えられないし学習禁止とあっても無効だと思う

  • 48二次元好きの匿名さん24/11/15(金) 20:57:00

    絵柄真似絵師は大昔からいたけど人力だから許されてた部分は大いにあっただろうし現に人力やMADは目を瞑ってくれたのに違法AI声優はブチギレられてるあたり絵も絵柄パクリしてる生成者は法整備された瞬間真っ先に裁かれるんじゃねえかな。
    というか声明すら出さんアニメ、ゲーム、漫画関連企業は絵柄パクAIを舐め過ぎてる

  • 49二次元好きの匿名さん24/11/15(金) 20:57:17

    請求というのは自分が権利を独占していて他人は使えないものを他人が使った場合の話で学習素材にされない権利なんてものは存在しないんだから請求に意味は無い
    街中歩いて俺のこと見たやつは100万円払えって言ってるのと同じ

  • 50124/11/15(金) 20:57:46

    まああとこのスレは法律云々ってよりは生成 AI の仕組みを紐解いてきたいねって感じなのでよろしく

  • 51二次元好きの匿名さん24/11/15(金) 20:58:08

    「明らかな絵の類似性」を現状証明する手段がない
    というか恐らく存在できない
    それこそAIで検出ごっこは出来るだろうけど、裁判に出せるほど確たる信頼性を担保することが不可能に近いんじゃない?悪魔の証明みたいなものだし
    実用性の面で「10人の真犯人を逃すとも、1人の無辜を罰するなかれ」という日本の法の理念に反するので、恐らく机上の空論の域を出ない

  • 52二次元好きの匿名さん24/11/15(金) 20:59:10

    殺人鬼を批判するのに殺人の手口を知る必要などないからな

  • 53二次元好きの匿名さん24/11/15(金) 21:03:53

    類似性の証明なんて並べてそっくりだねで終わりじゃん

  • 54二次元好きの匿名さん24/11/15(金) 21:04:07

    このレスは削除されています

  • 55二次元好きの匿名さん24/11/15(金) 21:06:06

    生成AIの学習を阻害する方法を探ってたつもりが法律の話になってしまって申し訳ない。

    調べて見たところ絵柄に著作権は確かにないけどキャラクターには著作権があるからオリキャラを勝手にエロ画像にされたり自作発言された場合は「キャラクターの著作権」って方向性が使えるようになるからそっち方面で攻めるしかないのかな。

    これ以上法の話ははスレチになっちゃうので良かったら叡智ニキたちが考えうる範囲でできそうな阻害方法あったら教えてください

  • 56二次元好きの匿名さん24/11/15(金) 21:06:28

    このレスは削除されています

  • 57124/11/15(金) 21:06:30

    >>54

    はえー

    なんか面白そうなことは書かれてるけど既存手法の仕組みがわかってないからどれだけ有効なのかわからんね

  • 58二次元好きの匿名さん24/11/15(金) 21:06:53

    このレスは削除されています

  • 59二次元好きの匿名さん24/11/15(金) 21:08:28

    >>53

    裁判って子供の口喧嘩ちゃうぞ

  • 60二次元好きの匿名さん24/11/15(金) 21:19:09

    生成AIにオイラー法やらへウン法やらが使われてるってのがいまいち理解できんのよな
    数学的・物理学的な領域で微分方程式の近似とかをこいつらでやってた(というか、むしろ何なら精度低い側の手法)けども
    そのグラフの線形近似に使うような代物が何をどうすりゃ画像生成に使えるのかって部分が全然出てこなくてもやっとする

  • 61124/11/15(金) 21:22:03

    >>60

    生成 AI ってよりはニューラルネットワークじゃない?

    誤差逆伝播法やるときの自動微分で数値計算する時に使うみたいな

  • 62二次元好きの匿名さん24/11/15(金) 21:26:00

    このレスは削除されています

  • 63二次元好きの匿名さん24/11/15(金) 21:27:12

    深層学習で精度を上げるのに有効なテクニックがあって何故その方法で精度が上がるのかを説明する時にその辺の数学的知識が必要になるだけでモデルの中で微分方程式解いてるわけじゃないよ

  • 64124/11/15(金) 21:27:15

    >>62

    ガキの頃「1 ドットずつ色変えてけば任意の画像作れんじゃね!?」ってひらめいた時を思い出すなあ……

  • 65二次元好きの匿名さん24/11/15(金) 21:27:38

    このスレ読んでるとプログラミングを勉強したくなってくるな
    大学で習って一生使わないと思ってたオイラー法が出てきてすごく興味湧いた

  • 66二次元好きの匿名さん24/11/15(金) 21:33:19
  • 67二次元好きの匿名さん24/11/15(金) 21:37:19

    このレスは削除されています

  • 686324/11/15(金) 21:41:38

    >>66

    へーこんなのあるんだ

    ResNetの事だと思ってそっちで話してたわ

  • 69二次元好きの匿名さん24/11/15(金) 21:46:51
  • 70二次元好きの匿名さん24/11/15(金) 21:56:23

    ぶっちゃけ気にしなきゃいけないの著作権云々より宗教的タブーだと思うんだけどあんまり言われないよね
    うっかり生成しちゃいましたで公開しちゃダメなものとか共有しといた方がいいんじゃないかと思うけど

  • 71二次元好きの匿名さん24/11/15(金) 22:10:38
  • 72二次元好きの匿名さん24/11/15(金) 22:33:10

    このレスは削除されています

  • 73二次元好きの匿名さん24/11/15(金) 22:36:41

    そんな深いところまで理解する必要もないと思うけどね
    浅い知識をもとにうかつな言動をとらない限りは

  • 74二次元好きの匿名さん24/11/16(土) 00:48:57

    >>16

    テキストエンコーダーとかなしのオリジナルのDDPM実装を読んだり動かしたりしてみればいいんでは

    GitHub - lucidrains/denoising-diffusion-pytorch: Implementation of Denoising Diffusion Probabilistic Model in PytorchImplementation of Denoising Diffusion Probabilistic Model in Pytorch - lucidrains/denoising-diffusion-pytorchgithub.com

    stable diffusionは色々くっついてて最初の勉強には敷居が高すぎる気がする

  • 75二次元好きの匿名さん24/11/16(土) 01:03:34
    /photo/1

    正直言うと、仕組みの解説はこれが一番わかりやすいまである

  • 76二次元好きの匿名さん24/11/16(土) 01:21:48

    >>75

    どれくらいの説明で理解したと思えるかは人それぞれだけど、多分、1もそのレベルの説明は見た上で大まかにしか知らんと言ってるのではないかと思う

  • 77二次元好きの匿名さん24/11/16(土) 01:28:40

    ノイズが云々というふわっとした仕組みの話なら大体把握してる人は多い印象だけど
    用語の意味まで掘るとかなり厳しいよね
    前々から使われる呪文の詠唱という表現がまさに当てはまってて、EulerとDPMが仕組み上どう違うのかは分からなくてもそれが生成結果のクオリティにどう影響するのかは分かる、みたいな
    俺は仕組みが違うと言われるSDとミッドジャーニーとDALLEの違いが全く分かってない。何がどう違うんだろうか

  • 78二次元好きの匿名さん24/11/16(土) 01:48:25

    DALL-Eとミッドジャーニーはオープンソースじゃないから中の人しか仕組み知りようがないのでは?

  • 79二次元好きの匿名さん24/11/16(土) 07:52:13

    このレスは削除されています

  • 80二次元好きの匿名さん24/11/16(土) 07:52:35

    >>78

    俺は生成ΑΙ実装どころかExcelのマクロすら怪しいがそういうのでもリバースエンジニアリングができるということは知っている


    リバースエンジニアリングは合法だがだいたいReadMeに「リバースエンジニアリングしないこと」と書いてあるから民事裁判になるかもしれない

  • 81124/11/16(土) 08:03:13

    >>80

    リバースエンジニアリングっつってもアセンブリに戻せるだけだしなあ……

    コンパイル済みのソースとか読める気がしない

  • 82124/11/16(土) 18:11:16

    自分漫画も描くんだけど仕組みを丁寧に解説した漫画とか描けるといいね

  • 83二次元好きの匿名さん24/11/16(土) 18:39:31

    >>80

    両方Webサービスだったのは置いても、リバースエンジニアリングすれば分かるは、知りようがないって言っていいと思う

    実行ファイルだけあってもウィルスやバックドアに気付けんってのがオープンソースが流行る理由の一つでもあるし

    理論とソースある(SDの場合)<理論だけある<ソースだけある<<<<実行ファイルしかないの順で、理解難易度違うと思う

  • 84二次元好きの匿名さん24/11/16(土) 18:43:37

    すごい勉強になるスレだな

  • 85二次元好きの匿名さん24/11/16(土) 19:43:43

    ローカルLLMちょっとさわるぐらいの知識の人間がチラ見したらめちゃくちゃ深い議論してて笑っちゃった 

  • 86二次元好きの匿名さん24/11/16(土) 19:58:54

    あにまんでよく話題になる学習と訴訟の話は

    今日見たこのつぶやきがわかりやすかった

    https://twitter.com/Julie_U_RMP_3/status/1857061562181198209

  • 87二次元好きの匿名さん24/11/16(土) 19:59:50

    Glaze意味ないなら放置しとけばええやんけ

  • 88124/11/16(土) 20:02:10

    >>87

    放置するかしないかを考えるスレと言うよりは Glaze って本当に効果があるの?とか仕組みに着目したいスレなので……

  • 89二次元好きの匿名さん24/11/16(土) 20:18:36

    Glazeが効果あるかないかといえばどちらとも言える
    そしてぶっちゃけ今の画像生成AIのモデルはアニメ絵については一定水準に到達しているので
    更なる品質向上のための進化にはX上でGlaze付けてようが付けてまいが
    下手くそな絵を喰わせると逆に劣化する
    (現時点で学習し切れてない二次創作絵の精度を上げるのに役立つだけ)
    学習元素材をより高品質な物のみにすることや蒸留し再学習することが必要になっている

    AIの方も手描きと一緒で
    あなた模倣禁止と言ってるけど別に上手くないので真似る気ないですの段階

  • 90二次元好きの匿名さん24/11/16(土) 20:38:27

    ちなみに生成AI画像かどうかを一番明確に見分ける方法として
    生の出力データであるPNGのPNG Infoにプロンプトが記載されてて一目瞭然なので
    たまにうっかりさんが生データのままアップロードしてると
    使ってる自作LoRAのファイル名まで分かって楽しいぞ

  • 91124/11/16(土) 20:42:03

    >>90

    Stable Diffusion の話?マジか

    ちょっと見てみるか

  • 92二次元好きの匿名さん24/11/17(日) 01:05:04

    まぁ技術が発展するとなんでもやりやすくなって
    やりやすくなると速度が上がって
    速度や頻度が上がる分公式が(AIならできるので)AI利用に注意喚起するのは分かる

    しかし技術という物は巻き戻らないし
    山に篭らない限りは否が応でも適応してかないといけないから叩いても仕方ないし
    本来は自分に関係のない相手をその技術を使うというだけで際限なく叩き続けたら
    そのうち心もパンクしてしまう気がするんだよな

    これが感情に寄り添わない技術者目線の考え方といわれるとまぁそうかもだけど

オススメ

このスレッドは過去ログ倉庫に格納されています