2022年11月の公開以来、世界中で爆発的に広がったChatGPT。従来型の大規模言語モデル「GPT」をチャット型にすることで、技術者のみならず一般人まで広く利用可能になった点がイノベーティブだ。しかし同時に、エンジニアには「ハルシネーション(AIが事実とは異なる情報を生成する現象)」のリスクを正しく認識し、適切に付き合っていくことが求められている。2024年2月に開催されたDevelopers Summit 2024において、株式会社NextInt代表の「ところてん」こと中山心太氏が、エンジニアの生成AIとの付き合いかた、生成AIによって変化したエンジニアの業務領域、求められるスキルについて解説した。 ChatGPTの有用性とハルシネーションのリスク OpenAI社によって開発されたChatGPTは、2022年11月に公開され、その高い技術性能によって世界中で爆発的に広がった。ChatG
世界で初めての「ChatGPT-4o」を搭載するスマートグラス、登場2024.07.03 08:0081,758 武者良太 あなた専用翻訳家といっても良いでしょう。 メガネ型のウェアラブルデバイス=スマートグラスには、ARメガネ、Bluetoothスピーカーのほかに、ARメガネのようなディスプレイは持たないけど、Ray-Ban Metaのようにカメラ&マイクを内蔵したAIと連携するタイプもあります。 「AirGo Vision」もRay-Ban Meta系のデバイスですが、世界で初めてのChatGPT-4oを搭載するスマートグラスという特徴を持ちます。 フロント(前枠)の左右にカメラが入っている...と思いきや、実際のカメラユニットはテンプル部分にビルトイン。このカメラで捉えた被写体の詳細をChatGPT-4oに教えてもらえるのがAirGo Visionのハイライト。 他にも写真や動画を撮
Gemini Code Assist は 2024 年 7 月 8 日まで料金不要でお試しいただけます。ただし、請求先アカウントごとに 1 ユーザーに限ります。
Claude 3、気になりますよね 今まで触ったことないけど、興味を持った方へ、入門するところまでのご案内です。 とりあえずチャットがしたい claude.aiにアクセスして、アカウントを作成します。 メールアドレスを入力する方法と、Googleのアカウントと紐付ける方法があります。 私はGoogleアカウントとの紐づけを行いました。 ログインができたら、もう、チャットができます。ChatGPTのような感じです。 日本語も自然に回答してくれます。 左下にClaude 3 Sonnetとあります。これはClaude 3のモデルの名称で、SonnetはClaude 3のシリーズの中で真ん中のモデルです。 Haiku - ハイク Sonnet - ソネット Opus - オーパス 名前からモデルの特徴を想像してもらいました。概ね特徴を捉えているのではないでしょうか。 Claude 3の特徴として
「GPT-4超え」とうわさのAI「Claude 3」を試す 仕事は任せられる? 若手記者の所感(1/2 ページ) 3月4日(現地時間)にリリースされたチャットAI「Claude 3」がすごい。筆者も記事の執筆を任せられないか少し試しているが、使い方によっては「そこそこいけるな……少なくともGPT-4よりはイケる」と思う程度にはしっかりしている。 過去に記事でも伝えた通り、ITmedia NEWSではChatGPTを活用した記事の制作も行っている。筆者もたまにGPT-4の力を借りて記事を作っているが、ものすごく効率化につながるかと言われれば、正直そこまでではない。 10の労力が9とか8.5くらいにはなるし、それはそれですごく大事なのだが、劇的な省力化にはつながらない。さらにプロンプトを考える手間もある。その辺を加味してギリギリ黒字くらいだ。特にここ半年くらいは以前より微妙なアウトプットしか出
ChatGPTがウンともスンとも2023年3月8日からだと思いますが、ChatGPTに何を打ち込んでも、まったくの無反応というとんでもない事態になりました。すでにChatGPTなしには成り立たない生活&仕事だったので、これには途方に暮れてしましました。 とはいえ、数時間待てば解消されるのではないかと思っていましたが、どれだけ待っても改善されませんし、Open AIからの何らかの告知もありません。翌3月9日になっても何も解決しないので本気で対応策を探したところ、Xに情報が載っておりました。 ChatGPT無反応の件、こちら側の環境のせいなのか分かりませんが下記で規定ブラウザでも反応するようになりました ?キャッシュクリア → 無反応のまま 〇続いてCookie削除 → いつも通りに使える様に こちらの環境下での話ですので、直らなかったらすみません。#openai — MON'ks (@Dru
マイクロソフトは、GPT-35-TurboもしくはGPT-4に任意のデータソースを指定することでそのデータの内容を読み込み、質問に対して内容を基に回答できるようになる新機能「Azure OpenAI On Your Data」が正式サービスとなったことを発表しました。 例えば、社内規約や社内マニュアルなどを読み込ませると、「PCの修理を申し込むための社内手続きは?」といった、汎用の知識だけしか持たない従来のGPTでは答えられない質問にも回答できるようになります。 任意のドキュメントを読み込ませるための支援ツール「Azure AI Studio」には、Azure OpenAI On Your DataでカスタマイズしたAIを、チャットボットとして公開する機能も備わっています。 カスタマイズしたチャットAIのサービスを、社内や社外に簡単に公開できるようになります。 Azure OpenAI S
【fabric】複雑なタスクをAIが自動化、人間の能力を拡張するオープンソースAIを使ってみた 2024 2/15 WEELメディア事業部LLMライターのゆうやです。 fabricは、誰でも人生や仕事を向上させるために使用できる、オープンソースAIフレームワークです。 このフレームワークは様々なタスクをパターン分けしており、文章の要約や動画の抽出といったタスクを簡単に実行できるほか、それらのパターンを組み合わせて高度なタスクをこなすこともできます。 以下の動画は実際に動作している様子です。 引用元:https://github.com/danielmiessler/fabric?tab=readme-ov-file#fabric-is-an-open-source-framework-for-augmenting-humans-using-ai fabricのGithubのスター数は、4,
お知らせ 📢 本記事の内容は、下記のZenn本に統合されたため、恐れ入りますが、下記をご参照ください m(_ _)m 最後に 最後まで読んでくださり、ありがとうございました! この記事を通して、少しでもあなたの学びに役立てば幸いです! おまけ①:生成AIアカデミー より専門的な「生成AIエンジニア人材」を目指しませんか? そんな方々に向けて、「生成AIアカデミー(旧:生成AIエンジニア塾)」というプログラムを始めました🎉 最終的なゴールとして、『エンタープライズ向けの生成AIシステムを構築するためのスキルを習得し、大手案件で活躍できる人材』を目標とします。 また、一人一人にしっかりと向き合って、メンタリングをできるようにするため、現在メンバーの人数制限をしております。本気度やスキルレベルの高い人から、順番にご案内しております。 ▼ 登録はこちらから ▼ おまけ②:AI Newslett
Llama2をコーディング用にチューニングしたCode Llamaでてますね。 そして、対話モデルもあります。 けどどう使うかわからなかったのでいろいろ試したら、なんとなくわかったのでメモ。 モデルはHugging Faceにあるので、ふつうのTransformersモデルとして使えます。 で、指示文は[INST]~[/INST]で囲む、システムからの出力は<SYS>から</SYS>で囲まれるという感じぽい。 ので、プロンプトをこんな感じで作る。 prompt = f"""[INST]{prompt}[/INST] <SYS> コード全体はこうなります。 import torch from transformers import AutoModelForCausalLM, AutoTokenizer from colorama import Fore, Back, Style, init
# Ubuntuの最新版をベースにする FROM ubuntu:latest # 必要なパッケージのインストール RUN apt-get update && apt-get install -y \ wget \ software-properties-common \ gcc-11 \ g++-11 # Python3.10を追加 RUN add-apt-repository ppa:deadsnakes/ppa RUN apt-get update RUN apt-get install -y python3.10 python3-pip # llama-cpp-pythonをインストール RUN pip install llama-cpp-python # ワークディレクトリを設定 WORKDIR /usr/src/app # ファイルをダウンロード RUN wget https:/
「Google Colab」で「Llama.cpp + Vicuna-v1.5」を試したのでまとめました。 1. Vicuna-v1.5のGGMLモデル「Vicuna-v1.5」で提供されている「GGML」モデルは、次の4つです。 ・TheBloke/vicuna-7B-v1.5-GGML ・TheBloke/vicuna-7B-v1.5-16K-GGML ・TheBloke/vicuna-13B-v1.5-GGML ・TheBloke/vicuna-13B-v1.5-16K-GGML 2. Colabでの実行Colabでの実行手順は、次のとおりです。 (1) モデルのダウンロード。 今回は、「vicuna-7b-v1.5.ggmlv3.q4_K_M.bin」を使います。 !wget https://huggingface.co/TheBloke/vicuna-7B-v1.5-GGML/r
わ、去年2023-08-26にこの記事書いたんだね。まる1年だね。2024年版機械学習・データ分析の必須10冊+ガチ90冊+Next5冊=105冊書きましたよ。 【データ分析の必読10冊+差をつける10冊+100冊超】データサイエンス、データ分析、機械学習関連の本がご好評いただいてましたが古くなりごちゃごちゃしているので新たに作り直しました 本記事のめあて IT系の技術者の方がデータ分析関連の仕事をするために役立つ本を紹介する(私が学び始めた時にあれば欣喜雀躍したであろう)記事として書いております。 本記事作者の青木はバイオインフォマティクス(ゲノムデータのDB化中心・Perl・MySQL)からRで時系列分析→Pythonでデータ分析一般と業務をしてまいりました。 ですので研究者目的の本はありません。また、データ分析の基礎は主にRで学んだのですが、昨今の流行に合わせてPython本を中心に
こんにちは!Fusic 機械学習チームのトシュコフです。 機械学習モデルの開発から運用までなんでもしています。もし、機械学習で困っていることがあれば、気軽にお問い合わせください。 本記事ではCerebriumという新しいサーバーレスGPUサービスを紹介します。 注意:まだベータであるため、不安定が多くバグもありますが、Slackチャンネルでの対応が非常によく、問題を経験した時に是非連絡してみてください。 概要 AIモデルをデプロイする時、GPUを利用することによって推論時間を非常に押せえる事ができます。リアルタイム推論をする時に推論時間が非常に大事になりますので、GPUで推論することが望ましいです。 ただし、クラウドのGPUインスタンスで推論する時にいくつかの問題が発生します: 1つのインスタンスをずっと借りる事で無駄の費用が発生します。 TorchServeのようなツールがありますが、設
【ローカルAI】GUIでCodeLlama-34B-Instruct-GGUFを動かしてみる【text-generation-webui】 概要 ローカルLLMで最近話題の「CodeLlama-34B-Instruct-GGUF」をtext-generation-webuiから動かし、「ローカルLLMでもファインチューニングなしでプロンプト指示できる」感覚を体験してみる。 メイン読者ターゲット ご家庭にGPUがある人(CPUでも良いが遅い) 最適化だったり正しい理解ができてるかは別として、とりあえず動かしたい人 導入から書くので、推論スピードだけ確認したい人は下まですっ飛ばしてください。 導入 text-generation-webuiの導入 以下からclone 自分はpyenv+venv派なので python -m venv .venv でactivate。 あとは基本的にinstall
以下の記事が面白かったので、かるくまとめました。 ・Fine-tune Llama 2 with DPO 1. はじめに「RLHF」は「GPT-4」「Claude」などのLLMの事実上の最後の学習ステップとなっており、LLM出力の饒舌さや安全さが人間の期待と一致していることを確認します。ただし、RLの複雑さが持ち込まれます。適切な報酬関数を設定し、状態を推定するようにモデルを学習する必要があります。同時に、元のモデルから離れすぎないよう注意する必要があります。このようなプロセスは非常に複雑で、正しく行うのは容易ではありません。 Rafailov、Sharma、Mitchellらによる最近の論文「Direct Preference Optimization」では、既存の手法で使用されているRLベースの目標を、単純なバイナリクロスエントロピー損失を介して直接最適化できる目標に切り替えることを提
2023/11/13追記以下の記事は、Llama2が公開されて数日後に書いた内容です。 公開から数ヶ月経った23年11月時点では、諸々の洗練された方法が出てきていますので、そちらも参照されることをおすすめします。 (以下、元記事です) 話題のLamma2をファインチューニングします。 QLoRAライブラリを使うパターンと、公式推奨の2つを試しました。前者が個人的にはオススメです。 前提Hugging faceで配布されている公式のモデルが必要です。以下を参考に、ダウンロードしておきます。 データセット作成 (7/20 15:20追記 設定ミスってたので修正しました) test.jsonを適当に作ります。 [ { "input": "", "output": "### Human: 富士山といえば?### Assistant: なすび" }, { "input": "", "output":
Mapion > ニュース > ネタ・コラム > ゼロからはじめるPython 第106回 プログラム生成AIのCodeLlamaを手元のPCでも動かしてみよう ChatGPTを筆頭にした「大規模言語モデル(LLM)」と呼ばれるAIが話題に上らない日はない。このAIが得意なタスクには「プログラムの自動生成」が挙げられるが、Metaからプログラム生成に特化したCodeLlamaが商用利用可能なオープンなライセンスでリリースされた。そこで実際に使ってみよう。 ○プログラミングは大規模言語モデルが得意とするタスク リリースからわずか2ヶ月で1億ユーザーを達成した「ChatGPT」の公開から本稿執筆時点で8ヶ月が過ぎた。筆者も業務でChatGPTをはじめ、Github Copilotなど、大規模言語モデル(LLM)関連サービスを使わない日はないくらいだ。 特に「プログラミング」は、間違いなく大規模
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く