エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント1件
- 注目コメント
- 新着コメント
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
llama.cppでGGUF形式のモデルファイルを読み込み、チャットする|Kohya S.
はじめにこの記事では、llama.cppを使ってGGUF形式のモデルファイルを読み込み、チャットする方法を簡単... はじめにこの記事では、llama.cppを使ってGGUF形式のモデルファイルを読み込み、チャットする方法を簡単に説明します。 GGUFは、モデルファイルの保存形式のひとつです。GGUFに限らず、llama.cppが対応しているモデル形式なら、同様に使えると思います。 環境OSはWindows 10/11、CUDAがインストールされていることを前提とします。 llama.cppのインストールまず、llama.cppのリリースページから、最新のリリース中の llama-b????-bin-win-cuda-cu12.4-x64.zip をダウンロードします。????はリリース番号です。インストールされているCUDAが12.xの場合は12.xを、11.xの場合は11.xを選択します。 ダウンロードしたzipファイルを解凍し、適当な場所に配置します。例えば、C:\llama に配置した場合、C:\
2025/01/22 リンク