"LLAMA"検索結果
00:53

Metaは100億ドルを投じ、Googleとクラウドコンピューティングサービスの大量注文を締結しました

金十データ8月22日報道、ますます激化するAI軍拡競争に直面し、ソーシャルメディアの巨人Meta Platforms(META.O)とGoogle Cloudは、少なくとも100億ドルの価値のある6年間のクラウドコンピューティングサービスのプロトコルを締結しました。このプロトコルは、Google Cloudのサーバーとストレージサービスを利用して、Metaの自社データセンターの構築周期が長いことによるコンピューティングパワーのギャップを迅速に埋めることを目的としています。この動きは、2つのテクノロジー大手がクラウドコンピューティングインフラストラクチャの分野で初めて大規模に協力することを示しています。アナリストは、この動きがGoogle Cloudの価格優位性を裏付けるだけでなく、MetaがLlamaモデルの推論能力を重点的に向上させることを示唆していると考えています。
もっと
23:03

Hugging Faceのオープンソースの最高級モデル

Jin10データ7月9日讯、今朝、世界的に有名な大規模モデルオープンプラットフォームHugging Faceがオープンソース化された、トップクラスの小型パラメータモデルSmolLM3。SmolLM3は30億のパラメータしか持たないが、その性能はLlama-3.2-3B、Qwen2.5-3Bなどの同類オープンソースモデルを大幅に上回っている。128kのコンテキストウィンドウを持ち、英語、フランス語、スペイン語、ドイツ語など6つの言語をサポートしている。デプス思考と非思考の二重推論モードをサポートし、ユーザーは柔軟に切り替えることができる。
もっと
B-6.31%
12:12

NillionメインネットがPhase 0のアップグレードを完了し、TEE暗号化データ保護を実現

Gate News botのメッセージ、プライバシーセキュリティ計算ネットワークNillionは、メインネットの最初のPhase 0アップグレードを完了しました。最新のアップグレードにより、開発者はTEE内でLlamaやDeepSeekなどのAIモデルを実行する機能を得ました。このアップグレードにより、開発者は分散化ノードクラスター上で暗号化データのストレージとクエリを行う際に、ノード運営者に対して必要ありません。
もっと
NIL-11.92%
15:32

Meta Llamaモデルのダウンロード数が10億を超え、今年は複数の新しいモデルが発売される予定です

MetaのCEOであるマーク・ザッカーバーグは、LlamaシリーズAIモデルの総ダウンロード数が10億回を超え、53%上昇したことを発表しました。Metaは2025年にAIプロジェクトに800億ドルを投資し、Llamaの開発を加速させる計画です。推論モデルやマルチモーダルAIを含む新しいモデルの導入が予定されており、初のLlamaCon開発者会議は4月29日に開催されます。
もっと
12:16

4Paradigmは、大規模モデル推論のためのエンドツーエンドソリューションであるModelHub AIoTを発表しました

金十データ2月26日、第四パラダイムからの情報によると、同社はAIoT向けの大規模モデル推論エッジソリューションModelHubを発表しました。ユーザーはDeepSeek R1、Qwen 2.5、Llama 2/3シリーズなどの小型蒸留モデルを端末に簡単に展開し、オフラインで実行できます。ユーザーは複数のモデル間を柔軟に切り替えることができ、モデルの圧縮と推論パフォーマンスの両立を実現し、展開と最適化の複雑さを解消しました。同社によれば、このソリューションはユーザーのプライバシーとリアルタイム性の要求を満たすだけでなく、AI大規模モデルの推論コストを大幅にドロップしました。
もっと
02:11
Stacks8日後に中本聡のアップグレードがアクティブになり、STXは2ドルを超えるでしょうか? Stacks NetworkはBTCの第2層であり、世界最大の分散型金融プロトコルの1つです。分散型金融のLlamaによれば、このプラットフォームは1.09億ドル以上の資産を管理しています。分散型金融サービスの台頭に伴い、さらなる拡大と改善が続くでしょう。5年以上のローンチ後、このネットワークは最も重要なアップグレードの1つ、中本聪に向けて準備を進めています。アナリストやプラットフォームの支持者は、このアップデートが特にエコシステムに対して大きな影響を与えると主張しています。 このチームは、最新のアップデートが10月29日にリリースされると述べています。最も重要なのは、この移行により、スループットとセキュリティが向上するということです。拡張性に関しては、StacksはETHの第2層を推進しようとしている可能性があります。この層は現在、トランザクションを安価に処理し、トランザクション集約型のDAppをホストすることができます。 アップグレードが開始されると、Stacksは約10分のビットコインブロック生成速度からデペグします。その後、プラットフォームは数秒でトランザクションを処理します。この変化により、Stacksはより多くのトランザクションを処理し、処理速度が向上し、ユーザーエクスペリエンスが向上します。 然而、チームは、このデペグがstackersとBTCマイナーの関係の終了を意味するものではないと述べています。チームによれば、協力関係は強化されるだけでなく、第2層のStacksはより分散化され、より強力になるでしょう。 Stacksは第2層であり、セキュリティを確保するためにBTCに依存しているため、すべての取引は依然として基礎層で確認する必要があります。したがって、取引のマイニングは第1層とは分離されますが、すべての取引はBTCメインネット上で完了します。この確認は不可逆であり、セキュリティが向上し、取引の逆転リスクはありません。 Nakamoto のアップグレードが楽観的であるとしても、原生トークン STX は平凡なパフォーマンスを見せています。日足チャートから見ると、このトークンは7月初以来大幅なレンジ相場状態にあります。STX の価格は1.20ドルから2ドルの間で変動しています。このトークンは8月初に大きな下落を経験した後、着実に回復し、ポンプして約60%上昇しました。それでも、ポンプトレンドを形成し、買い手が3月から7月までの損失を取り戻すためには、2ドルを突破する必要があります。 もし上昇に伴う取引高の増加があれば、それは2023年第4四半期初めから3月中旬の高値と似たような高い高値を引き起こす可能性があります。 この場合、STXはほぼ9月の高値の2倍である4ドルまで急上昇する可能性があります。 (出典:Dalmas Ngetich)
STX-6.05%
BTC-0.11%
DEFI-5.3%
ETH-1.18%
  • 1
  • 2
07:41

Akash ChatはLlama 3.1 405B AIを導入し、非常に高速でプライベートなチャット体験を提供します

BlockBeatsニュース、8月12日、公式情報によると、Akash Chatは新機能を発表しました。Llama 3.1 405B AIモデルを搭載し、毎秒27トークンの処理能力を実現します。ユーザーは高速で無料でプライバシーが保護されたチャット体験を楽しむことができます。すべてのチャット記録はローカルブラウザに保存され、登録は必要ありません。
  • 1
09:21

腾讯云にLlama 3.1モデルが展開されました

金十データ7月24日のニュースによると、本日、テンセントクラウドTIプラットフォームはMetaの最新オープンソース大型モデルLlama3.1を適応し、上場しました。テンセントクラウドはこのシリーズのモデルを微調整し、推論テストを実施してモデルの利用可能性と利便性を確保し、インテリジェント対話、テキスト生成、ライティングなどのさまざまなロングシーンをカバーできるようにしました。
05:42

ザッカーバーグはLlama 3.1をリリースし、オープンソースAIを推進しています

MetaのCEOであるマーク・ザッカーバーグは、多言語の会話と複雑な問題解決をサポートし、業界標準をリードする最先端のオープンソースAIモデルであるLlama 3.1のリリースを発表しました。 同氏は、オープンソースのAIはカスタマイズ可能で、費用対効果が高く、安全であり、将来の前向きなAI開発を可能にするために不可欠であると指摘しました。 Llama モデルは、開発者が主にオープンソースの AI を使用するよう促す業界の変曲点になると予想されます。
もっと
  • 1
15:06

MetaがオープンソースAIモデル「LLAMA 3.1 405B」をリリース

PANews 7月23日のニュースによると、MetaはLLAMA 3.1 405Bオープンソース人工智能モデルをリリースしました。さらに、MetaはLLAMAモデル8Bと70Bのアップグレード版を発表し、コンテキストの長さを128Kに拡張し、8種類の言語のサポートを追加しました。
  • 1
  • 1
05:29

真格基金は、オープンソースAIプロジェクトvLLMに寄付を提供することを発表しました

Odaily星球日报のニュースによると、真格基金はオープンソースAIプロジェクトvLLMに寄付を行うことを発表しました。真格基金は、この寄付がAI技術の普及を推進し、より多くの人々が恩恵を受けることを目的としていると述べています。 vLLMは、カリフォルニア大学バークレー校の3人のチームによって開発されたオープンソースの大規模モデル推論アクセラレーションフレームワークであり、Mistral、Llamaを含む30以上の最新のオープンソースをサポートしています。
もっと
04:21
Golden Ten Dataは6月5日、今朝、Zhipu AIが一連の新機能と新モデルを含むMaaSプラットフォームのオープンプラットフォームのバージョン2.0をリリースしたと報じました。 報告によると、新しいGLM-4-Flashモデルは26の言語を習得し、その包括的な能力は40%向上し、Llama-3-8B-Instructを包括的に上回りました。
GLM2.24%
00:07
金色财经によると、Arweave創始者のSam WilliamsはXプラットフォームで、AO超並列コンピュータがAI技術のいくつかの重要なブレークスルーを達成したと述べています。 包括:AOスマートコントラクトで完全なLLMs(Llama 3など)を実行すること:これにより、これらのAIモデルはブロックチェーン上のスマートコントラクトで直接実行でき、財務上の意思決定ができます。WASM64をサポート:これにより、プロトコルレベルで最大約18エクサバイト(EB)のメモリを使用できるため、大規模なデータ処理が容易になります。WeaveDrive:この技術により、AOプロセスはArweaveのデータにローカルハードドライブのようにアクセスできます。さらに、すべての詳細は6月20日のイベントで発表されます。
AR-5.22%
02:36

Metaは、最新の言語モデルであるLlama 3をリリースしました

Metaは、80億と700億の両方のパラメータモデルを含む最新の言語モデルであるLlama 3をリリースし、推論機能を向上させ、このカテゴリの新しい標準を設定しました。 今後数か月で、Metaはロングコンテキストウィンドウ、ロングモデルサイズ、およびパフォーマンスの向上を備えた新機能も導入します。 さらに、ラマ3の研究論文も、研究や研究のためにコミュニティに公開されます。
もっと
15:05
PANewsは2月28日、The Informationによると、Meta Platformsが7月にLLAMA 3をリリースする予定であると報じました。
02:15
Odaily Planet Daily News Curveは、Xプラットフォームで、crvUSDに基づくワンウェイレンディング市場は準備ができており、契約監査を待っており、双方向レンディング市場(担保資産を貸し出すことができる)も基本的に準備ができており、契約書作成作業が完了し、テストが進行中であると公式に述べました。 以前、Curveの創設者であるMichael Egorovが管理する0x7a16がllamalend.eth AddressのENSドメイン名を取得したか、crvUSDに基づく独立した融資プラットフォームであるLlama Lendを立ち上げると報告されました。
CRVUSD0.25%
ENS-3.56%
ETH-1.18%
  • 1
03:29

オラクル、OCI Generative AI Serviceを発表

オラクルは、組織がジェネレーティブAIの新しいテクノロジーを簡単に活用できるようにするOCIジェネレーティブAIサービスおよびその他のイノベーションを発表しました。 OCI Generative AI Serviceは、CohereとMeta Llama 2の大規模言語モデル(LLM)をシームレスに統合して、様々なビジネス・ユースケースに対応するフルマネージド・サービスです。 OCI Generative AIには、100を超える言語の多言語機能、アップグレードされたGPUクラスタ管理エクスペリエンス、および柔軟な微調整オプションが含まれるようになりました。 お客様は、OCI Dedicated Regionを使用して、Oracle Cloudおよびオンプレミス環境でOCI Generative AIを使用できます。
もっと
  • 1
00:49
1月19日の金融AP通信の報道によると、ソーシャルメディア大手のマーク・ザッカーバーグCEOは、人工知能(AI)の重要性を改めて強調しました。 同氏は、同社の次の目標はAGI(Artificial General Intelligence)の開発であり、そのためにNVIDIA AIチップを大量に購入すると発表しました。 同氏によると、メタは、ほとんどの分野で人間の知能レベルに匹敵するか、それを超えることができるAIである独自のAGIを構築することを計画しており、その技術を大衆に開放することを約束しているという。 以前、MetaがLlama 3を訓練しており、Nvidiaの人工知能チップを購入するために数十億ドルを費やすと報じられていました。
AGI-1.83%
  • 1
01:18
CNBCが1月19日に報じたように、MetaはNvidiaのAIチップに数十億ドルを費やしています。 ザッカーバーグ氏は11日、インスタグラムのリールへの投稿で、同社のAIの「将来のロードマップ」では「大規模なコンピューティングインフラ」の構築を求めていると述べた。 ザッカーバーグ氏によると、このインフラには2024年末までにNvidiaのH100グラフィックスカード35万枚が含まれる予定だという。 ザッカーバーグは、同社が購入したGPUの数を明らかにしていませんが、H100は2022年後半まで入手できず、供給も限られていました。 Raymond Jamesのアナリストは、NvidiaのH100は25,000ドルから30,000ドルで販売されていますが、eBayでは40,000ドル以上になる可能性があると推定しています。 Metaが価格の下限で支払っていた場合、支払いは90億ドル近くになっていたでしょう。 さらに、ザッカーバーグ氏は、Metaが未開発の「汎用インテリジェンス」を「責任を持って」オープンソース化する計画であり、同社が大規模言語モデルのLlamaファミリーで行っていると述べた。 ザッカーバーグ氏によると、メタは現在、ラマ3のトレーニングを行っており、基礎人工知能研究チーム(FAIR)やGenAI研究チームとより緊密に連携しているという。
01:18
CNBCが1月19日に報じたように、MetaはNvidiaのAIチップに数十億ドルを費やしています。 ザッカーバーグ氏は11日、インスタグラムのリールへの投稿で、同社のAIの「将来のロードマップ」では「大規模なコンピューティングインフラ」の構築を求めていると述べた。 ザッカーバーグ氏によると、このインフラには2024年末までにNvidiaのH100グラフィックスカード35万枚が含まれる予定だという。 ザッカーバーグは、同社が購入したGPUの数を明らかにしていませんが、H100は2022年後半まで入手できず、供給も限られていました。 Raymond Jamesのアナリストは、NvidiaのH100は25,000ドルから30,000ドルで販売されていますが、eBayでは40,000ドル以上になる可能性があると推定しています。 Metaが価格の下限で支払っていた場合、支払いは90億ドル近くになっていたでしょう。 さらに、ザッカーバーグ氏は、Metaが未開発の「汎用インテリジェンス」を「責任を持って」オープンソース化する計画であり、同社が大規模言語モデルのLlamaファミリーで行っていると述べた。 ザッカーバーグ氏によると、メタは現在、ラマ3のトレーニングを行っており、基礎人工知能研究チーム(FAIR)やGenAI研究チームとより緊密に連携しているという。
06:21
qubitのレポートによると、Beijing Depth Quest Companyは、パフォーマンスがLlama 2-7Bに匹敵し、計算量を60%削減する、国産初のオープンソースMoE大型モデルDeepSeek MoEを発売しました。 DeepSeek MoEの現在のバージョンには160億個のパラメータがあり、実際にアクティブ化されるパラメータの数は約28億個です。 さらに、Depth Seekチームは、DeepSeek MoEモデルの145Bバージョンが開発中であることも明らかにしました。 段階的な予備試験では、145 B DeepSeek MoEはGShard 137 Bよりも大きな利点があり、28.5%の計算労力でDeepSeek 67 Bモデルの集中型バージョンに匹敵するパフォーマンスを達成できることが示されています。
  • 1
05:19

ByteDanceと浙江大学が共同で、動画コンテンツを解釈できるマルチモーダル大規模言語モデル「Vista-LLaMA」を発表

ByteDanceは浙江大学と提携し、ビデオコンテンツ理解のために設計され、高品質のビデオ説明を出力できるマルチモーダル大規模言語モデルであるVista-LLaMAを立ち上げました。 Vista-LLaMAは、革新的な視覚的および言語的トークン処理により、ビデオコンテンツにおける「幻覚」の問題を解決します。 Vista-LLaMAは、複数のオープンビデオQ&Aベンチマーク、特にNExT-QAおよびMSRVTT-QAテストで優れています。 ゼロショットNExT-QA試験で60.7%、MSRVTT-QA試験で60.5%の精度を達成し、現行のSOTA法を凌駕しました。 これらの結果は、ビデオコンテンツの理解と説明の生成におけるVista-LLaMAの効率と精度を示しています。
もっと
TOKEN-4.6%
  • 1
  • 1
15:44
Odaily Silo Labsは、Xプラットフォームで「Silo LlamaでcrvUSDLTV / LTを調整する」という提案に関する最新情報をリリースしました。 この提案は、健全な清算証拠金を維持し、CRVとYFIを借りるユーザーにのみ影響を与えることを目的としています。 Silo LlamaのcrvUSDのLTV/LTの削減は、以下の市場で実行されることが提案されています。 - CRV-crvUSD:50%/80%(1月7日実行) - YFI-crvUSD:55%/70%(1月7日執行) - LINK-crvUSD:65%/ 75%(変更が実装済み)、crvUSDの貸し手は預金の最大55%を借りることができ、清算しきい値は70%です。
CRVUSD0.25%
CRV-6.94%
  • 1
10:00
1. Meituが自社開発したAIビジョンモデル「MiracleVision」は、出願を通じて一般公開される 2. ファーウェイのNoah's Ark Labなどは、LLaMA 3を超える同規模の性能を持つ新しい大規模言語モデルアーキテクチャ「Pangu-π」を共同で立ち上げました。 サムスン電子、チップ事業とAIアプリケーションを強化するための2024年の戦略的優先事項を発表 4. 清華大学とハーバード大学のチームは、LERF 5 の 199 倍の速さで 3D シーンをより正確に記述できる AI システム LangSplat を立ち上げました。 WriterbuddyがグローバルトップAIツールレポートを発表:ChatGPTは146億回の訪問を生み出し、1位にランクイン 6. NetEase Youdao Dictionaryが2023年のWords of the Yearを発表:_ 7. IDC:ジェネレーティブAIへの支出は2024年に倍増し、2027年までに1,500億ドルを超える
05:53
1月2日のQubitのレポートによると、HuaweiのNoah's Ark Labなどは、新しい大規模言語モデルアーキテクチャであるPangu-πを共同で立ち上げました。 非線形性を高めることで、アーキテクチャは従来のTransformerよりも改善され、特徴の崩壊の問題を大幅に軽減し、モデル出力をより表現力豊かにすることができます。 同じデータで学習した場合、Pangu-π(7B)はマルチタスクでLLaMA2を凌駕し、推論速度10%を達成したと報告されています。 1BスケールまでのSOTA。 同時に、このアーキテクチャに基づいて、ファーウェイは「雲山」と呼ばれる大規模な財務および法的モデルも洗練させました。 この作業は、AI Dacheng Taoが主導しています。
05:48
1月1日にXinzhiyuanが報じたように、MetaのリサーチャーであるMartin Signoux氏は、2024年のAIについて8つの予測を行いました。 人工知能スマートグラスがトレンドになっています。 マルチモーダル技術の台頭により、大手AI企業はAIウェアラブルの開発に倍増するでしょう。 AIアシスタントをホストするのにメガネのフォームファクタよりも優れているものは何でしょうか? 2. ChatGPT は、AI アシスタントにとって、Google が検索するものです。 2023年、ChatGPTは輝き始めており、Bard、Claude、Llama、Mistral、そして何千ものスピンオフが次々と登場しています。 製品化が進むにつれて、ChatGPTはもはやこの分野の唯一の参照基準ではなくなり、その評価も見直されることになります。 3.大規模なモデルモデルに別れを告げ、マルチモーダルモデルにこんにちは。 LMMは引き続き登場し、マルチモーダル評価、マルチモーダル安全性、マルチモーダルこれ、マルチモーダルあれをめぐる議論においてLLMに取って代わるでしょう。 さらに、LMMは真の汎用AIアシスタントへの足がかりとなります。 4.大きなブレークスルーはありませんが、すべての面で改善されています。 新しいモデルは真のブレークスルー(GPT-5)にはつながらず、LLMはまだ性質が限られており、幻覚を起こしやすい。 2024年には、「基本的なAGIを解く」のに十分な信頼性を持つ飛躍は見られません。 5. 小型モデル(SLM)はすでに登場していますが、費用対効果と持続可能性への配慮により、この傾向が加速するでしょう。 定量的技術も大幅に改善され、それによって消費者サービスのためのデバイス統合の波が押し寄せます。 6.オープンソースモデルがGPT-4を打ち負かし、オープンソースとクローズドの戦いは徐々に沈静化しました。 過去 12 か月間のオープンソース コミュニティの活力と進歩を振り返ると、オープンソース モデルがまもなくパフォーマンスのギャップを埋めることは明らかです。 7. ベンチマークは依然として課題である。 ベンチマーク、リーダーボード、または評価ツールは、モデル評価のワンストップショップです。 代わりに、特にマルチモダリティの観点から、一連の改善(HELMなど)と新しいイニシアチブ(GAIAなど)が見られます。 8.存在するリスクは、既存のリスクと比較してあまり議論されていません。 2023年はX-riskが話題になりますが、公開討論では、バイアス、フェイクニュース、ユーザーの安全、選挙の公正性などに関連する既存のリスクや論争に焦点が当てられるようになるでしょう。
AGI-1.83%
07:25
ロイターが12月12日に報じたように、Metaは自社の弁護士からの警告にもかかわらず、海賊版書籍を使用してAIモデルをトレーニングしました。 月曜日に提出された新しい訴状によると、Metaは、保護された作品を使用して人工知能言語モデル「Llama」を許可なくトレーニングしたとして非難されています。 この訴訟は、コメディアンのサラ・シルバーマン、ピューリッツァー賞受賞のマイケル・シャボンなどの作家がこの夏に共同提案した。 今週、この訴訟は別の同様の訴訟に加わった。 先月、カリフォルニア州の判事はシルバーマン氏の訴訟の一部を棄却したが、原告らは訴訟を修正することは許されると述べた。 この新たな訴状には、Metaの研究者がDiscordのチャットサーバー上のデータセットへのアクセスについて議論しているチャットの書き起こしが含まれており、Metaが同書の使用が米国著作権法で保護されていない可能性があることを認識していることの証拠である。 起訴状に引用されているチャットの書き起こしで、研究者のティム・デットマーズは、書籍ファイルをトレーニングデータとして使用することが「合法」であるかどうかについて、Metaの法務部門との議論を説明しています。 Tim Dettmers氏は、Metaの法務部門の弁護士が、書籍がAIモデルのトレーニングに使用された場合、法的な問題が生じる可能性があると述べていると述べました。 弁護士は、データは使用できず、使用してもモデルを公開できないと述べました。
  • 2
04:47
Jiemian Newsによると、Thundersoftは最近の調査で、同社がエンドサイド操作用の130億パラメータモデルのリリースを主導したと述べました。 モデル圧縮技術、分散並列技術、テンソル並列技術を駆使することで、Qualcomm 8シリーズチッププラットフォームを搭載したエッジデバイス上で2,130億LLaMAのパラメータモデルの安定動作を実現し、業界初の大規模モデル企業としてこのブレークスルーを達成しました。
01:36
12月8日のIT Homeによると、Metaは昨日、Purple Llamaと呼ばれるAI検出スイートを発表し、開発者が独自のAIセキュリティを検出し、「生成AIモデルとアプリケーションを責任を持って展開する」のに役立つ一連のツールを提供すると主張しています。 Purple Llamaスイートは現在、「CyberSec_」評価ツール、Llama Guard「Input and Output Security Classifier」を提供しており、Metaは将来的にさらに多くのツールがスイートに追加されると主張しています。 Metaは、Purple Llamaスイートは独自のLlama言語モデルの標準化を目指しており、他の競合他社のAIモデルにも対応できることを紹介しており、このスイートの名前はセキュリティ分野の「パープルチームコンセプト」に基づいています。 Metaは、パープルチームは「レッドチームへの攻撃とブルーチームの防御」を組み合わせたものであり、パープルラマスイートはAIモデルに対する潜在的な脅威を評価して軽減し、「攻撃と防御の両方の戦略のバランスをとる」ように設計されていると主張しています。 具体的には、Purple Llamaスイートは、ハッカーが問題のモデルを「脱獄」するのを防ぐために、モデルの入力と出力を検査およびフィルタリングすることに加えて、大規模なモデルのサイバーセキュリティリスクのメトリックを定量化し、潜在的なコードの脆弱性を評価し、モデルのセキュリティに関する洞察を提供できるようになりました。
01:04
AIGCのオープンコミュニティによると、Microsoftは、Falcon、Phi、Jais、Code Llama、CLIP、Whisper V3、Stable Diffusionなど、テキスト、画像、コード、音声、その他のコンテンツ生成をカバーする40の新しいモデルをAzure AIクラウド開発プラットフォームに追加することを発表しました。 開発者は、APIまたはSDKを使用するだけで、モデルをアプリケーションにすばやく統合し、データの微調整や命令の最適化などのカスタマイズされた機能をサポートします。 さらに、開発者は、キーワードで検索する (たとえば、"code" という単語を入力して対応するモデルを表示する) することで、Azure AI のモデル モールで適切な製品をすばやく見つけることができます。
08:16
VentureBeatによると、11月21日、Microsoft ResearchはOrca 2用の小さな言語モデルをリリースした。 ゼロRF環境で複雑な推論タスクをテストする際のOrca 2のパフォーマンスは、MetaのLlama-2 Chat-70Bなどの大規模言語モデルに匹敵するか、5倍から10倍以上であると報告されています。 70億と130億のパラメータのサイズで利用可能なOrca 2は、数か月前に、より大規模で高性能なモデルの段階的な推論軌跡を模倣することで強力な推論能力を実証したオリジナルの13B Orcaモデルに基づいて構築されています。 現在、Microsoft は 2 つの新しいモデルをオープンソース化して、大規模なモデルに匹敵するパフォーマンスを持つ小規模なモデルを開発および評価する方法をさらに調査しています。
ORCA-4.11%
  • 1
もっと詳しく
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)