情報更新

last update 03/28 22:44

ツイート検索

 

@alfredplpl
サイトメニュー
Twilogユーザー検索

Twilog

 

@alfredplpl

あるふ@alfredplpl

Stats Twitter歴
4,789日(2011/02/18より)
ツイート数
113,837(23.7件/日)

ツイートの並び順 :

表示するツイート :

2023年04月01日(土)71 tweetssource

4月1日

@alfredplpl

あるふ@alfredplpl

というても、事実自律的に動かしているわけではないので、想像の範囲で終わってしまうだけだが。

posted at 20:39:04

4月1日

@alfredplpl

あるふ@alfredplpl

なんだろう、今のGPT-4を自律的に動かしても大丈夫なんだろうか?自分で新しいアルゴリズムをそれっぽく生成してウルヴァリン(というプロンプト)のようにエラーから自己修復しつつ、より優れたアルゴリズムを生む可能性は本当にないのだろうか?

posted at 20:31:01

4月1日

@kyo_takano

Kyo@kyo_takano

> 頭が良い人が使うと頭の良い回答をしてくる

全然そんなことないと思いますが…

適当なプロンプトでもそれなりの品質の出力を得られるのがinstruction-followingモデルの特徴のひとつなので、「頭が良い」かどうかはその出力の解釈を上手く利用できるかに与える影響の方が遥かに大きいでしょう twitter.com/alfredplpl/sta

Retweeted by あるふ

retweeted at 19:29:11

 

非公開

retweeted at xx:xx:xx

4月1日

@rootport

Rootport🍽@rootport

ChatGPTの最大の弱点は、インターフェイスが人間であること。入力を行う人間によって、出力結果が違い過ぎること。「どんな人間が使うか」がボトルネックになってしまう。

Retweeted by あるふ

retweeted at 17:12:22

4月1日

@ProfMatsuoka

Satoshi Matsuoka@ProfMatsuoka

富岳のLLMに関してはもう少し待って下さい。識者に関してはNII所長になった自然言語が専門の黒橋さん、同様で産総研AIRC所長の辻井さん、コーパスなどでは東北大の乾さん、言語生成系では一人者の東工大の岡崎さん、利用に関しては東大の川原さん、スパコンでの大規模学習は東工大の横田さん、あたりで… twitter.com/i/web/status/1 twitter.com/torii_h/status

Retweeted by あるふ

retweeted at 17:08:38

 

表示拒否

retweeted at xx:xx:xx

4月1日

@alfredplpl

あるふ@alfredplpl

なんとなく自由エネルギー原理をGPT-4に大卒でもわかるように教えてもらったけど、なんとなくわかるような気がしたので、GPT-4くん、賢いなぁと思った。で、この自由エネルギー原理をGPT-4に搭載するじゃろ?シン(

posted at 14:57:20

4月1日

@ProfMatsuoka

Satoshi Matsuoka@ProfMatsuoka

(というか、富岳の成果を有難い事に大変礼賛いただく資料の一方で、同じようなコンテクストで(同じ位本来大変な)「基盤モデル学習用に幾千や万単位のGPUを並べる」という、あたかも誰でも直ぐ出来るようなサラッとした提案資料を見かけると、その矛盾に気づいて欲しいと思う訳で。。。)

Retweeted by あるふ

retweeted at 13:40:12

4月1日

@alfredplpl

あるふ@alfredplpl

もちろんGPT-4を自律的に動かしたら、あっという間に、シンギュラリティ!してしまうので、危険なのは確かだが。

posted at 13:10:38

4月1日

@alfredplpl

あるふ@alfredplpl

ChatGPT、頭が良い人が使うと頭の良い回答をしてくるため、(構造に詳しくない)頭が良い知識人ほどヤバいと感じるのだが、実はそこまで引き出せる人はごく僅かであって、そのごく僅かな人の生産力を極大にする効果があるだけではないかと思えてきている。

posted at 13:09:44

4月1日

@alfredplpl

あるふ@alfredplpl

@m_sekijima @souyakuchan おっしゃる通りです。使い手の知識や知恵があれば、確実にブーストしてくれるはずです。例えば、私の専門であるロボットや画像生成には、LLMは新しい視点を提供してくれました。そういう意味でも使い手の教育は結局必要であると感じました。

posted at 09:07:58

4月1日

@alfredplpl

あるふ@alfredplpl

@souyakuchan ありがとうございます。やはりLLMの使い方が多少分かっても、ミリ単位も創薬を知らないと全然無理っぽいですね。LLMは使い手の能力に合わせた結果しか得られないことがよくわかりました。

posted at 09:00:32

4月1日

@souyakuchan

叢雲くすり (創薬ちゃん)@souyakuchan

#LLM創薬チャレンジ
ナイストライ!

せっかくなので InChI を SMILES に直すスクリプトを GPT-4 に書いてもらった。
スクリプトは動くが、提示された InChI は残念ながらどれも Invalid InChI でそもそも構造式として不正のようだ。エイプリルフールらしく架空の化合物文字列となっている。 twitter.com/alfredplpl/sta pic.twitter.com/H7qzDVtDKc

Retweeted by あるふ

retweeted at 08:57:13

4月1日

@alfredplpl

あるふ@alfredplpl

クリエイティブ損失の詳細。

クリエイティブ損失 (Creative Loss) は、生成画像が多様性と独自性を維持し、同時に高品質でリアルな画像を生成するために設計された損失関数です。この損失関数は三つのサブコンポーネントから構成されます:

1. *スタイル損失 (Style Loss):*… twitter.com/i/web/status/1

posted at 03:22:37

4月1日

@alfredplpl

あるふ@alfredplpl

GPT-4を使って新しい画像生成AIを作ってみてもらったところ、新しい損失関数クリエイティブ損失を爆誕させることに成功した。クリエイティブ損失 (Creative Loss): 生成画像が多様性と独自性を持ち、単に入力画像をコピーしないことを確認します。だそうだ。なにこれ。

posted at 03:19:35

4月1日

@alfredplpl

あるふ@alfredplpl

GPT-4を使って、新しい自己回帰型の生成モデルを作れないかなぁとか適当に考えたら、なんか作ってくれた。雑だけど聞けば具体化してくれるのかな?AR-Gen: Attention-Based自己回帰生成モデルだそうだ。

シンギュラリティ!(言いたいだけ

posted at 03:07:10

4月1日

@alfredplpl

あるふ@alfredplpl

これ、そもそも、SMILESでもないしな。きっちり条件を読んで、そもそも論を理解しないと無理っぽい

posted at 02:33:47

4月1日

@denfaminicogame

電ファミニコゲーマー@denfaminicogame

【衝撃】世界初のTCG『マジック:ザ・ギャザリング』の起源は300年前の江戸文化にあった!?
news.denfaminicogamer.jp/news/230401m

「庭先に自生するブラックロータス」や「江戸時代のカードショップ」など、新発見の浮世絵に描かれた驚きの光景とともに、誰も知らなかった歴史の真実が紐解かれる pic.twitter.com/EtQcwnE056

Retweeted by あるふ

retweeted at 01:31:10

このページの先頭へ

×