MizumotoAtsushi@MizumotoAtsushi
@AkinoIwamo 年取ると時差ボケがきつくなるって聞いたことある気が...w
posted at 22:25:59
Stats | Twitter歴 4,514日(2011/05/15より) |
ツイート数 25,501(5.6件/日) |
表示するツイート :
MizumotoAtsushi@MizumotoAtsushi
@AkinoIwamo 年取ると時差ボケがきつくなるって聞いたことある気が...w
posted at 22:25:59
MizumotoAtsushi@MizumotoAtsushi
@Tom21808379 あぶなかったw
posted at 20:57:25
MizumotoAtsushi@MizumotoAtsushi
おれは今後、語彙の研究を国際ジャーナルには出さないぞ!ジョジョーッ!!(なんか聞いた)
posted at 20:56:56
MizumotoAtsushi@MizumotoAtsushi
@Tom21808379 ラーメン食べたらあかんのか!?それはめっちゃ大事なアドバイス!
posted at 20:34:27
MizumotoAtsushi@MizumotoAtsushi
@Tom21808379 店員さんの喋り方が、みんな黒田さん!
posted at 20:32:10
MizumotoAtsushi@MizumotoAtsushi
@Tom21808379 さすがwww
posted at 20:29:15
MizumotoAtsushi@MizumotoAtsushi
4コマ漫画「はじめてのからし蓮根」 https://pic.twitter.com/FyB6OUJqe6
posted at 20:29:14
MizumotoAtsushi@MizumotoAtsushi
@Tom21808379 正解!w https://pic.twitter.com/cmCrrqnZUG
posted at 20:22:25
MizumotoAtsushi@MizumotoAtsushi
有言実行 https://pic.twitter.com/ctvDaH0uvN
posted at 20:02:14
雨でずぶ濡れになったからそのままシャンプーなんて聞いてなかった柴犬 https://pic.twitter.com/52V1Lweb1F
Retweeted by MizumotoAtsushi
retweeted at 19:45:25
Hirosato Gamo | AI Cloud Solution Architect@hiro_gamo
これ、LLMのファインチューニングとプロンプティング(Searchとの連携)の目的をいい感じに分類してくれていて分かりやすいっす。基本はタスク学習・精度向上はFine tuning、知識の補助はSearchなんですよね。 https://twitter.com/pwang_szn/status/1664210285652221952…
Retweeted by MizumotoAtsushi
retweeted at 19:29:59
OpenAI、大規模言語モデルの数学能力を大きく向上させることに成功
https://aiboom.net/archives/52505
Retweeted by MizumotoAtsushi
retweeted at 19:28:40
【一撃でわかる】大規模言語モデル(LLM)入門!基礎からわかりやすく徹底解説。
https://nlpillustration.tech/?p=5201
Retweeted by MizumotoAtsushi
retweeted at 19:27:25
MizumotoAtsushi@MizumotoAtsushi
posted at 16:08:32
日経BPの教育とICT Onlineでご紹介いただきました。授業におけるメタバースの活用についてなどです。
https://project.nikkeibp.co.jp/pc/atcl/19/06/21/00003/052700450/…
Retweeted by MizumotoAtsushi
retweeted at 16:07:56
MizumotoAtsushi@MizumotoAtsushi
@akkywine アッキーも腰が治ったらぶつかろう!
posted at 15:54:43
これ、教えてもらったけどほんとすごい
https://qiita.com/ot12/items/96b5783568196d3320fe…
Retweeted by MizumotoAtsushi
retweeted at 15:52:57
インタビューが公開されました。
https://bilingualscience.com/english/2023060201/…
Retweeted by MizumotoAtsushi
retweeted at 15:49:53
MizumotoAtsushi@MizumotoAtsushi
レンタカーであまり温泉らしくない温泉に。マークとぶつかり稽古。 https://pic.twitter.com/XxsbpFTKa0
posted at 15:49:49
MizumotoAtsushi@MizumotoAtsushi
@So_Miyagawa JALTCALLという学会です〜
posted at 15:39:18
MizumotoAtsushi@MizumotoAtsushi
@bantam84 yes!
posted at 14:38:41
MizumotoAtsushi@MizumotoAtsushi
おもてたんとちゃう!w https://pic.twitter.com/HvO4xF7fHl
posted at 14:22:59
Hirosato Gamo | AI Cloud Solution Architect@hiro_gamo
【ゆる募】
ChatGPTエンドユーザ向けのプロンプトテクニックのTipsを纏めないといけないので思いつく限り書いてみました。
優しいGPTユーザのみなさま、ほかにも良い観点があれば教えてください。
・5W1Hを意識して書く(曖昧さを排除)
・GPTに役割を与える
・質問回答の例示を与える… https://twitter.com/i/web/status/1664461441427193858…
Retweeted by MizumotoAtsushi
retweeted at 13:24:53
日経ビジネスに、chatGPTについて今井先生が書かれた連載が掲載されました(全5回中1回目となります。)。https://business.nikkei.com/atcl/gen/19/00554/052500002/…
#日経BP
#今井むつみ
#chatGPT
Retweeted by MizumotoAtsushi
retweeted at 13:14:46
台北の地下街でえげつないもの売ってる https://pic.twitter.com/1rL3iVa8xq
Retweeted by MizumotoAtsushi
retweeted at 13:09:23
MizumotoAtsushi@MizumotoAtsushi
博多からツバメでくまモンに会いに行きます。 https://pic.twitter.com/QHyw7gmF6s
posted at 13:03:53
MizumotoAtsushi@MizumotoAtsushi
fMRI reveals the dynamic interface between explicit and implicit knowledge recruited during elicited imitation task https://www.sciencedirect.com/science/article/pii/S2772766123000113?dgcid=rss_sd_all…
posted at 11:29:33
MizumotoAtsushi@MizumotoAtsushi
新幹線、きれいになってる!
posted at 10:07:37
東京大学の吉田塁准教授が無料公開した「教員向けChatGPT講座」がめちゃくちゃ参考になる。教員向けと書かれていますが、一般の方でも読んで学びのある内容です。ChatGPTの基礎を、わかりやすく解説されていますので、初心者必見です。資料はリプライのURLから見れます。 https://pic.twitter.com/1sNiHKWRBu
Retweeted by MizumotoAtsushi
retweeted at 09:27:05
MizumotoAtsushi@MizumotoAtsushi
@pathos95606 お疲れさまです!昨日はありがとうございました〜
posted at 09:26:44
MizumotoAtsushi@MizumotoAtsushi
オススメしていただいた温泉、休業中... 調べておいてよかったw https://pic.twitter.com/VmBSJp6npv
posted at 08:17:26
MizumotoAtsushi@MizumotoAtsushi
Mark、酔ってあれだけ書けるのは酔拳のレベルやでw
posted at 08:15:31
ChatGPTや大規模言語モデルを使う際に「Wikipediaによると...」のような出典を特定するフレーズを追加することで、LLMが事前学習データから直接引用するように誘導し、生成される情報の信頼性を向上させることができるという手法をジョン・ホプキンス大の研究者らが発表。 https://pic.twitter.com/ULK5IBBmET
Retweeted by MizumotoAtsushi
retweeted at 04:15:19