西川善司の3DGE:AMDのGPU「RDNA 4」完全解説。既存のゲームをそのまま高速化する新技術の数々が明らかに ライター:西川善司 AMDの最新GPUアーキテクチャである「RDNA 4」は,2025年3月に,最初の採用製品「Radeon RX 9070 XT」と「Radeon RX 9070」が登場。2025年6月には,ミドルクラス市場向けの「Radeon RX 9060 XT」が,2025年8月には,「Radeon RX 9060」が登場した。 Radeon RX 9070 XT搭載カードのSapphire Technology製「PURE Radeon RX 9070 XT GPU」 XFX製のRadeon AI PRO R9700搭載カードを掲げるScott Olschewsky氏(Radeon Graphics,Product Management Director,AMD)
Instant AI workloads—no setup, scaling, or idle costs.
しぴぴぴ! Vtuberのしぴちゃん (https://www.youtube.com/@CP-chan)です。普段はゲーム配信しかしてませんが、たまにAIについて発信することがあります。今日はAIの記事の方。 現在はローカルAIモデルに関する連載をしています。 第一弾 本記事(DeepSeek R1をほぼ準備なしからローカルGPUで動かす) 第二弾 Cline+ローカル版DeepSeek R1でAIコーディングを使い放題にする(高スペックマシン向け) 最近話題のローカルで動くLLM、DeepSeek R1 をローカルGPU環境(NVIDIA)で動かしてみましょう。 多少のコマンドラインの操作ができれば、事前にローカルLLMを触ったことがなくてもインストールできるように書くつもりです。 サムネはDeepSeek R1くんに画像を生成してもらおうとしたところです(そんな機能はありません)。
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 結論 スポットで使うならColab、Runpodが最強 ゲーミングPCでいいならどこかで買うかBREAJONでサブスクしよう だいたいRunpodさんがなんとかしてくれる 今回の記事について こんにちは!逆瀬川 ( https://x.com/gyakuse ) です!今日は最強のGPUプロバイダー決定戦をします。世は大GPU時代となりました。Valorantをやるにも、APEXをやるにも、ある程度高性能なGPUが必要です。League of Legends はノートパソコンでも遊べるのでおすすめです。 その他の利用として機械学習のモデ
CUDAのプログラムを書くための emacs の設定です cuda-mode まずcuda-modeをインストールします 設定はこれだけ (use-package cuda-mode :mode ("\\.cu\\'" "\\.cuh\\'") ) これでCUDA関連の予約語などがhighlight表示されます lsp 関連 clangd 経由でCUDAのコードでもlspが使えます 設定も簡単です 設定ファイル .clangd を用意 C/C++と同様に lspを使う これだけです .clangdはソースコードと同じディレクトリに配置します .clangd の内容は以下のとおり CompileFlags: Add: - --cuda-path=/usr/lib/cuda - -L/usr/lib/cuda/lib64 - -I/usr/lib/cuda/include これで clangd
NVIDIA CUDA-X Libraries NVIDIA CUDA-X™ Libraries, built on CUDA®, is a collection of libraries that deliver dramatically higher performance—compared to CPU-only alternatives—across application domains, including AI and high-performance computing. NVIDIA libraries run everywhere from resource-constrained IoT devices to self-driving cars to the largest supercomputers on the planet. As a result, user
SPOC is a set of tools for GPGPU programming with OCaml. The SPOC library enables the detection and use of GPGPU devices with OCaml using Cuda and OpenCL. There is also a camlp4 syntax extension to handle external Cuda or OpenCL kernels, as well as a DSL to express GPGPU kernels from the OCaml code. This work was part of my PhD thesis (UPMC-LIP6 laboratory, Paris, France) and was partially funded
SCALE is a GPGPU programming toolkit that allows CUDA applications to be natively compiled for AMD GPUs.
こんにちは、安くLLMを構築したいですね。おすすめ構成をお知らせします。 LLMは大規模言語モデルのことで、AIがChatGPTみたいに文章を作ってくれます。無料で使えますが、業務で使おうとすると結構難点があるし、データの漏洩とか含めて困りますね。手元のローカルでLLMを作る際のおすすめ構成をお知らせします。 まず、LLMを作るには、マザーボード、CPU、メモリ、SSD、電源、ケース、そしてGPUが必要です。ソフトウェアやOSはすべて無料で手に入りますので、心配入りません。 まず、ケースにマザーボード、CPU、メモリ、SSD、電源をセットします。この辺りは標準的な構成をお勧めします。 肝心なのはGPUで、VRAMのサイズが搭載できるLLMの性能を左右します。パラメータ数7Bのモデルが標準的に使われていますので、 14GB程度のVRAMが必要です。 そこで、よく使われるのがおそらく安価でVR
よくわからなかったので、調べて整理しようとした試み。 Compute Capability GPU ハードウェアがサポートする機能を識別するためのもので、例えば RTX 3000 台であれば 8.6 であるなど、そのハードウェアに対応して一意に決まる。 アーキテクチャの世代が新しくなり、機能が増えるほど、この数字も上がっていく。 以下のリンク先に、Compute Capability と機能の対応表があるが、これを見ると(少なくとも執筆時点で) Compute Capability 7.x 以上でテンソルコアが使えるといったことがわかる。 それぞれの機種がどの値かは以下のサイトから確認できる。 NVIDIA Driver のバージョン Compute Capablity 一般向けの Compute Capability との関連性は見つからなかったが、データセンタ向けの資料には Maxwe
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く