-
ニュー速(嫌儲)
-
AMD、DeepSeek Ryzen APU 鬼速版を発表、ChatGPTパクリ疑惑のデータセットもアメリカン仕様に差し替え [422186189]
- コメントを投稿する
-
対応、速すぎ
-
【悲報】nvidia急速にオワコン化
-
わざわざAPUで動かす必要あるのか
-
トランプは何やってんの
コイツラ規制しないの? -
よくわからんがメインメモリ上で動くのか?
-
>>5
むしろアホみたいなデカさと消費電力のグラボ入れる必要なくなるのはいいだろ -
ラデオンの方がメモリ多いしな
-
>>5
メモリ盛るの楽チンちん -
うおおお安心安全!
-
NVIDIAなんか いらんかったんやー
-
5500GTと4700Uにも対応してくれよ
-
もう5日前の記事やんけ
-
>>4
安い速いうまいのdeepseekさん出たからもういらないな -
対応CPUかグラボは必要なのか~
しゃーない買い替え検討するわ -
AI動かすために爆熱巨大グラボを買った人 全員バカです
-
Ryzen7 5700xとRTX2060使ってる俺はどうしたらいいの?
-
さすがAMD
世界の流れを理解している -
おれの含み損amdついに利益でるか!?
-
AMD株買っていいの?
-
画像生成のLoRaみたいに
追加学習が容易になったら
ローカルLLM普及元年になるぞ -
7840でもいけるのかよかった
-
まさか覇権がエヌビデアからAMDに移るとはな
-
来週7900xで新PC組むから楽しみ
-
ノロマジャップがエヌビ買い向かってたしな
こうなるのは目に見えてた -
つかマジで中の人たち鬼才揃いだろ?
色々早すぎてやべえよ。エヌビディアは独占が崩れるから値下がり必死だな。
その他関連企業は逆にAI盛り上がって値上がりだな。 -
そのうちやっとAIって言うほど使えないとなるかな?アメリカ独自のうちは言い出せなかったからな。
-
nvidia上げのために意図的に冷飯食わされてたからな
そらこの好機を見逃さずに反撃しますわ -
>>23
トランプが株価暴落のキッカケを作りそうだしもう少し待て -
685GBもあるから気軽にダウンロードできないよぉ
-
nvidiaの時代が終わってAMDとメモリ屋の時代がくるのか?
-
Nvidiaのcuda囲い込み失敗
後は落ちるだけか -
エロ絵生成できんの
-
いまローカルでやるなら一番いい方法はどれ?
-
オレの2400Gも可哀想だから頼むわ
-
言語モデルでも画像生成でもいい
-
LLMてVRAMサイズ大正義だからな
潮目が変わった -
もうこれ世界の種子だろ
-
ネトウヨなんかどうでもいいけど、大喜びでdeepseekがー蒸留がーとか報道
してた読売新聞さんこれどうするの? -
amd株爆買いするぞ
-
学習時と利用時で今まで両方Nvidiaが必要だったけど
利用時はもう必須じゃなくなるんやな -
やっとGeForceとCUDA縛りが無くなるのか
-
GPUなの?
winの絡みで入れたNPUは? -
そりゃあAMDからしたらnV囲い込みで強制的にRadeonだとデバフ付くAIよりこっちを選ぶ罠w
-
>>44
廃刊でしょ廃刊 -
APU…APUかあ
-
>>22
みんな売る時は半額以下やで -
CUDAが完全に足を引っ張っている
-
蒸留ならスマホで動いてたしな
-
どうした?革ジャン顔真っ赤だぞ?
-
重いゲームやらないのに組んだ7900greと64gbメモリが輝く時が来たのか
-
CUDAとボッタでイメージ悪杉だからな
応援したいと思われそうなのもデカい -
パソコン工房に並んだ転売ヤー達涙目
-
>>17
これからは学習用途はGPU、利用だけならメモリって棲み分けができそうやな -
30万くらいか?それでもdigitsやmacより安い
-
すげええすげえええ
-
NVIDIAはAI囲い込みで他を蔑ろにしてたのに、こうなるとモア株価も上がらんな
-
Ryzen AI 9 365 32GBで最安20万くらい
MAX+ 395 64GBは40万しそうじゃん -
>>60
学習用途と利用って違うのか -
>>13
Distill…解散 -
>>20
俺の5700Gと無料で交換する…とか? -
フル版と蒸留版じゃカニとカニカマより違うのに誤解を招きまくるスレ立てやめろよただのllamaとqwenだぞdeepseekのcudaに非依存なんて特徴すらない既存のモデルだぞ
-
アメリカン仕様って?
-
MITライセンスのオープンソース化ってこういうことだから
学習データがどうこういったって差し替えれば済むし中国にされてる最先端半導体規制を突破できる
アメリカ自身にバトン渡してるんだからコレからドンドン亜種が出てくるし最適化されていく -
>>70
元々フル版が動く訳ないだろw -
よくみると推奨はQ4までって書いてあるな
精度大丈夫なんか -
Distill対象となったMeta LlamaやAlibaba Qwenのミニマム環境ってどれくらいだっけ?
そっちを動かせる環境があるならいいけど
普通はないでしょ -
>>73
だからクソみたいなスレタイなんだろデータセット差し替えとかソースに書いてねぇしAMDがなんかをリリースしたわけでも無くリリース初日から出来てた事を初心者向けに解説してるだけの記事だし -
AMD本家がやるのかよwww
nVIDIAを殺しにかかったな -
俺の5600Gが遂に
-
>>72
Distilled LlamaとDistilled Qwenは
もともとDeepSeek AI自体が提供している
://aws.amazon.
com/jp/blogs/machine-learning/deploy-deepseek-r1-distilled-llama-models-with-amazon-bedrock-custom-model-import/#:~:text=From%20the%20foundation%20of%20DeepSeek,from%201.5–70%20billion%20parameters. -
>>76
ファーwww -
>>78
それもただのデマだね -
>>68
LoRA使って画像作るのとLoRA作るの違いみたいなもんか -
>>78
ごめん誤爆。>81にある通り正解だね -
>>83
よく見たらLMstudioのRyzen版リリースしてたわ -
>>35
おちんちんびよーん!! -
>>76気狂いのデマだね
比較環境すら出せない脳内ベンチ -
AMDは思わぬ追い風吹いたな
-
価格サイト見たら256GBのAMDマザーあるけど
これにAPU付きRyzenと256GB分のメモリー載せたら
40万の5090より安くて高性能なAIマシンが作れちゃうのかな -
AMDの正体が知れてきてしまったな
道理で都合の悪い情報はすぐにネガキャンで潰されるわけだよ -
嫌儲でdeepseekを語るやつ殆どただの糖質だろもう
-
理想五万譲って10万くらいでサクサクに動くやつで頼む
-
精度や最先端をそこまで求めてない
って人の方が大多数なんじゃないのか -
今ラデオンAPU使ってるんだが
メモリ128GBぐらい盛ればええんか? -
AMDがやたら乗り気で最適化かけてきてるからさらに高速化するだろうなw
-
AI Max+ 395はいつ出回るねん
-
そんなのよりエッチな絵の生成に対応してください!
-
>>5
PS5やXBOXというものが有ってだな -
>>98
すでにしてるが。
↑今すぐ読める無料コミック大量配信中!↑