Jadual Kandungan
Jadual Kandungan
Apa itu Qwen3?
Ciri -ciri utama Qwen3
Cara Mengakses Model Qwen3 melalui API
Menggunakan Qwen3 untuk kuasa penyelesaian AI anda
Prasyarat
Membina ejen AI menggunakan qwen3
Langkah 1: Menyediakan perpustakaan dan alat
Langkah 2: Membuat ejen
Langkah 3: Memulakan ejen
Output
Membina sistem kain menggunakan qwen3
Langkah 2: Membuat embeddings
Langkah 3: Memulakan sistem RAG
Aplikasi QWEN3
Kesimpulan
Soalan yang sering ditanya
Rumah Peranti teknologi AI Cara Membina Sistem RAG dan Ejen AI dengan QWEN3

Cara Membina Sistem RAG dan Ejen AI dengan QWEN3

May 07, 2025 am 09:10 AM

Qwen baru sahaja mengeluarkan 8 model baru sebagai sebahagian daripada keluarga terbarunya - Qwen3, mempamerkan keupayaan yang menjanjikan. Model perdana, QWEN3-235B-A22B, mengatasi kebanyakan model lain termasuk DeepSeek-R1, Openai's O1, O3-Mini, Grok 3, dan Gemini 2.5-Pro, dalam tanda aras standard. Sementara itu, QWEN3-30B-A3B kecil mengalahkan QWQ-32B yang mempunyai kira-kira 10 kali parameter diaktifkan sebagai model baru. Dengan keupayaan maju seperti itu, model -model ini terbukti menjadi pilihan yang baik untuk pelbagai aplikasi. Dalam artikel ini, kami akan meneroka ciri -ciri semua model QWEN3 dan belajar cara menggunakannya untuk membina sistem RAG dan agen AI.

Jadual Kandungan

  • Apa itu Qwen3?
  • Ciri -ciri utama Qwen3
  • Cara Mengakses Model Qwen3 melalui API
  • Menggunakan Qwen3 untuk kuasa penyelesaian AI anda
    • Prasyarat
    • Membina ejen AI menggunakan qwen3
    • Membina sistem kain menggunakan qwen3
  • Aplikasi QWEN3
  • Kesimpulan
  • Soalan yang sering ditanya

Apa itu Qwen3?

Qwen3 adalah siri terbaru model bahasa besar (LLMS) dalam keluarga Qwen, yang terdiri daripada 8 model yang berbeza. Ini termasuk QWEN3-235B-A22B, QWEN3-30B-A3B, QWEN3-32B, QWEN3-14B, QWEN3-8B, QWEN3-4B, QWEN3-1.7B, dan QWEN3-0.6B. Semua model ini dikeluarkan di bawah lesen Apache 2.0, menjadikannya secara bebas untuk individu, pemaju, dan perusahaan.

Walaupun 6 model ini padat, bermakna mereka secara aktif menggunakan semua parameter semasa kesimpulan dan latihan, 2 daripadanya berwajaran terbuka:

  • QWEN3-235B-A22B: Model besar dengan 235 bilion parameter, di mana 22 bilion parameter diaktifkan.
  • QWEN3-30B-A3B: MOE yang lebih kecil dengan 30 bilion parameter dan 3 bilion parameter aktif.

Berikut adalah perbandingan terperinci semua model 8 QWEN3:

Model Lapisan Kepala (q/kV) Tali embedding Panjang konteks
Qwen3-0.6b 28 16/8 Ya 32K
Qwen3-1.7b 28 16/8 Ya 32K
Qwen3-4b 36 32/8 Ya 32K
Qwen3-8b 36 32/8 Tidak 128k
Qwen3-14b 40 40/8 Tidak 128k
Qwen3-32b 64 64/8 Tidak 128k
QWEN3-30B-A3B 48 32/4 Tidak 128k
QWEN3-235B-A22B 94 64/4 Tidak 128k

Inilah yang dikatakan meja:

  • Lapisan: Lapisan mewakili bilangan blok pengubah yang digunakan. Ia termasuk mekanisme perhatian diri pelbagai kepala, rangkaian ke hadapan, pengekodan kedudukan, normalisasi lapisan, dan sambungan sisa. Oleh itu, apabila saya katakan QWEN3-30B-A3B mempunyai 48 lapisan, ini bermakna model menggunakan 48 blok pengubah, disusun secara berurutan atau selari.
  • Kepala: Transformers menggunakan perhatian multi-kepala, yang memisahkan mekanisme perhatiannya ke beberapa kepala, masing-masing untuk mempelajari aspek baru dari data. Di sini, q/kv mewakili:
    • Q (Kepala pertanyaan): Jumlah bilangan kepala perhatian yang digunakan untuk menjana pertanyaan.
    • KV (Kunci dan Nilai): Bilangan kepala kunci/nilai setiap blok perhatian.

Nota: Kepala perhatian ini untuk kunci, pertanyaan, dan nilai adalah sama sekali berbeza daripada vektor kunci, pertanyaan, dan nilai yang dihasilkan oleh perhatian diri.

Juga Baca: Model Qwen3: Cara Mengakses, Prestasi, Ciri, dan Aplikasi

Ciri -ciri utama Qwen3

Berikut adalah beberapa ciri utama model QWEN3:

  1. Pra-latihan: Proses pra-latihan terdiri daripada tiga peringkat:
    • Pada peringkat pertama, model itu pretrained pada lebih daripada 30 trilion token dengan panjang konteks token 4K. Ini mengajar model kemahiran bahasa asas dan pengetahuan umum.
    • Pada peringkat kedua, kualiti data telah diperbaiki dengan meningkatkan perkadaran data intensif pengetahuan seperti STEM, pengekodan, dan tugas pemikiran. Model itu kemudian dilatih lebih daripada 5 trilion token tambahan.
    • Pada peringkat akhir, data konteks berkualiti tinggi yang berkualiti tinggi digunakan dengan meningkatkan panjang konteks kepada token 32k. Ini dilakukan untuk memastikan model dapat mengendalikan input yang lebih lama dengan berkesan.
  1. Post-Training: Untuk membangunkan model hibrid yang mampu menunaikan penalaran langkah demi langkah dan pesat, saluran paip latihan 4 peringkat telah dilaksanakan. Ini terdiri daripada:
    • Rantaian panjang (COT)
    • Pembelajaran Penguatkuasaan Berasaskan Perundangan (RL)
    • Fusion mod pemikiran
    • Umum RL
  1. Mod Pemikiran Hibrid: Model Qwen3 Gunakan pendekatan hibrid untuk menyelesaikan masalah, yang menampilkan dua mod baru:
    • Mod Pemikiran: Dalam mod ini, model mengambil masa dengan melanggar pernyataan masalah yang rumit ke dalam langkah -langkah kecil dan prosedur untuk menyelesaikannya.
    • Mod tidak berfikir: Dalam mod ini, model ini memberikan hasil yang cepat dan kebanyakannya sesuai untuk soalan yang lebih mudah.
  1. Sokongan berbilang bahasa: Model Qwen3 menyokong 119 bahasa dan dialek. Ini membantu pengguna dari seluruh dunia mendapat manfaat daripada model -model ini.
  2. Keupayaan Agentik Improvised: Qwen telah mengoptimumkan model QWEN3 untuk pengekodan dan keupayaan agensi yang lebih baik, juga menyokong Protokol Konteks Model (MCP).

Cara Mengakses Model Qwen3 melalui API

Untuk menggunakan model QWEN3, kami akan mengaksesnya melalui API menggunakan API OpenRouter. Inilah cara melakukannya:

  1. Buat akaun di OpenRouter dan pergi ke bar carian model untuk mencari API untuk model itu.

Cara Membina Sistem RAG dan Ejen AI dengan QWEN3

  1. Pilih model pilihan anda dan klik pada 'Buat Kunci API' pada halaman pendaratan untuk menghasilkan API baru.

Cara Membina Sistem RAG dan Ejen AI dengan QWEN3

Menggunakan Qwen3 untuk kuasa penyelesaian AI anda

Dalam bahagian ini, kami akan melalui proses membina aplikasi AI menggunakan QWEN3. Kami akan mula membuat ejen perancang perjalanan AI yang menggunakan model, dan kemudian bot RAG Q/A menggunakan Langchain.

Prasyarat

Sebelum membina beberapa penyelesaian AI dunia nyata dengan QWEN3, kita perlu terlebih dahulu meliputi prasyarat asas seperti:

  • Kebiasaan dengan command prompt atau terminal dan keupayaan untuk menjalankannya melalui terminal.
  • Keupayaan untuk menubuhkan pembolehubah persekitaran.
  • Python mesti dipasang: https://www.python.org/downloads/
  • Pengetahuan mengenai asas -asas Langchain: https://www.langchain.com/

Membina ejen AI menggunakan qwen3

Dalam bahagian ini, kami akan menggunakan QWEN3 untuk membuat ejen perjalanan AI yang akan memberikan tempat perjalanan utama untuk bandar atau tempat yang anda lawati. Kami juga akan membolehkan ejen mencari Internet untuk mencari maklumat yang dikemas kini, dan menambah alat yang membolehkan penukaran mata wang.

Langkah 1: Menyediakan perpustakaan dan alat

Pertama, kami akan memasang dan mengimport perpustakaan dan alat yang diperlukan untuk membina ejen.

 ! Pip Pasang Langchain Langchain-Community Openai Duckduckgo-Search
dari langchain.chat_models import Chatopenai
dari alat import langchain.
dari langchain.tools import duckduckgosearchrun
dari langchain.Agents Import Initialize_agent


LLM = Chateopenai (
   base_url = "https://openrouter.ai/api/v1",
   api_key = "your_api_key",
   Model = "QWEN/QWEN3-235B-A22B: Percuma"
)
# Alat carian web
carian = DuckDuckGoSearchRun ()


# Alat untuk destinasiagen
def get_destinations (destinasi):
   kembali carian.run (F "Top 3 Tempat Pelancong di {Destinasi}")


DestinasiTool = alat (
   Nama = "Destinasi Pencapaian Destinasi",
   func = get_destinations,
   Penerangan = "Cari tempat teratas untuk dikunjungi di bandar"
)


# Alat untuk mata wang
def convert_usd_to_inr (pertanyaan):
   jumlah = [float) untuk s dalam query.split () jika s.replace ('.', '', 1) .isdigit ()]
   jika jumlah:
       kembali f "{jumlah [0]} usd = {amaun [0] * 83.2: .2f} inr"
   kembali "tidak dapat menghuraikan jumlah."


Mata Wang = Alat (
   Nama = "Penukar Mata Wang",
   func = convert_usd_to_inr,
   Penerangan = "Menukar USD ke INR berdasarkan kadar statik"
)
Salin selepas log masuk
  • Search_Tool: DuckDuckGoSearchRun () membolehkan ejen menggunakan carian web untuk mendapatkan maklumat masa nyata mengenai tempat pelancongan yang popular.
  • DestinationTool: Memohon fungsi get_destinations (), yang menggunakan alat carian untuk mendapatkan 3 tempat pelancongan teratas di mana -mana bandar tertentu.
  • Mata Wang: Menggunakan fungsi Convert_USD_TO_INR () untuk menukar harga dari USD ke INR. Anda boleh menukar 'inr' dalam fungsi untuk menukarnya kepada mata wang pilihan anda.

Juga Baca: Bina pembantu perjalanan chatbot dengan Huggingface, Langchain, dan Mistralai

Langkah 2: Membuat ejen

Sekarang kita telah memulakan semua alat, mari kita teruskan untuk membuat ejen yang akan menggunakan alat dan memberi kita rancangan untuk perjalanan.

 Alat = [DestinationTool, CurrencyTool]


agen = initialisasi_agent (
   alat = alat,
   llm = llm,
   agen_type = "sifar-shot-react-deskripsi",
   verbose = benar
)
def trip_planner (bandar, usd_budget):
   dest = get_destinations (bandar)
   inr_budget = convert_usd_to_inr (f "{usd_budget} usd to inr")
   kembali f "" "Inilah rancangan perjalanan anda:


*Tempat teratas di {City}*:
{dest}
*Bajet*:
{inr_budget}
Nikmati perjalanan sehari anda! "" "
Salin selepas log masuk
  • Initialize_agent: Fungsi ini mewujudkan ejen dengan langchain menggunakan pendekatan tindak balas sifar, yang membolehkan ejen memahami deskripsi alat.
  • Agent_Type: "Zero-Shot-React-Deskripsi" membolehkan Agent LLM untuk menentukan alat yang harus digunakan dalam situasi tertentu tanpa pengetahuan terlebih dahulu, dengan menggunakan keterangan dan input alat.
  • Verbose: Verbose membolehkan pembalakan proses pemikiran ejen, jadi kami dapat memantau setiap keputusan yang dibuat oleh ejen, termasuk semua interaksi dan alat yang dipanggil.
  • trip_planner: Ini adalah fungsi python yang secara manual memanggil alat dan bukannya bergantung pada ejen. Ia membolehkan pengguna memilih alat terbaik untuk masalah tertentu.

Langkah 3: Memulakan ejen

Dalam bahagian ini, kami akan memulakan ejen dan memerhatikan tindak balasnya.

 # Inisialisasi ejen
bandar = "Delhi"
usd_budget = 8500


# Jalankan Perancang Multi-Agen
respons = ejen.run (f "Rancang perjalanan sehari ke {City} dengan anggaran {usd_budget} usd")
dari ipython.display import markdown, paparan
paparan (markdown (respons))
Salin selepas log masuk
  • Penyerahan ejen: ejen.run () menggunakan niat pengguna melalui prompt dan merancang perjalanan.

Output

Cara Membina Sistem RAG dan Ejen AI dengan QWEN3

Membina sistem kain menggunakan qwen3

Dalam bahagian ini, kami akan membuat bot RAG yang menjawab sebarang pertanyaan dalam dokumen input yang berkaitan dari pangkalan pengetahuan. Ini memberikan tindak balas yang bermaklumat menggunakan QWEN/QWEN3-235B-A22B. Sistem ini juga akan menggunakan Langchain, untuk menghasilkan respons yang tepat dan konteks.

Langkah 1: Menyediakan perpustakaan dan alat

Pertama, kami akan memasang dan mengimport perpustakaan dan alat yang diperlukan untuk membina sistem RAG.

 ! Pip memasang Langchain Langchain-Community Langchain-Core Openai Tiktoken Chromadband-Transformers Duckduckgo-Search
dari langchain_community.document_loaders import Textloader
dari langchain.text_splitter import charactertextsplitter
dari langchain_community.vectorstores import chroma
dari langchain.embeddings import HuggingFaceembeddings
dari langchain.Chains Import Retrievalqa
dari langchain.chat_models import Chatopenai
# Muatkan dokumen anda
loader = Textloader ("/kandungan/my_docs.txt")
docs = loader.load ()
Salin selepas log masuk
  • Dokumen Memuatkan: Kelas "Textloader" Langchain memuat dokumen seperti fail PDF, TXT, atau DOC yang akan digunakan untuk pengambilan Q/A. Di sini saya telah memuat naik my_docs.txt.
  • Memilih Persediaan Vektor: Saya telah menggunakan ChromAdb untuk menyimpan dan mencari embeddings dari pangkalan data vektor kami untuk proses Q/A.

Langkah 2: Membuat embeddings

Sekarang bahawa kami telah memuat dokumen kami, mari kita teruskan untuk mewujudkan embeddings daripada itu yang akan membantu dalam meringankan proses pengambilan semula.

 # Berpecah ke dalam ketulan
splitter = characterTextSplitter (chunk_size = 300, chunk_overlap = 50)
ketulan = splitter.split_documents (docs)


# Ditanam dengan model Huggingface
embeddings = huggingFaceembedDings (Model_name = "All-Minilm-L6-V2")
db = chroma.from_documents (ketulan, embedding = embeddings)


# Persediaan qwen llm dari OpenRouter
LLM = Chateopenai (
   base_url = "https://openrouter.ai/api/v1",
   api_key = "your_api_key",
   Model = "QWEN/QWEN3-235B-A22B: Percuma"
)


# Buat rantai kain
retriever = db.as_retriever (search_kwargs = {"k": 2})
rag_chain = retrievalqa.from_chain_type (llm = llm, retriever = retriever)
Salin selepas log masuk
  • Pemisahan Dokumen: The CharacterTextSplitter () memisahkan teks ke dalam ketulan yang lebih kecil, yang akan membantu dalam dua perkara. Pertama, ia memudahkan proses pengambilan semula, dan kedua, ia membantu mengekalkan konteks dari bahagian sebelumnya melalui chunk_overlap.
  • Dokumen Embedding: Embeddings menukar teks ke dalam vektor embedding dimensi set untuk setiap token. Di sini kita telah menggunakan chunk_size 300, yang bermaksud setiap perkataan/token akan ditukar menjadi vektor 300 dimensi. Sekarang embedding vektor ini akan mempunyai semua maklumat kontekstual perkataan itu berkenaan dengan kata -kata lain dalam bahagian.
  • RAG RAG: RAG RAG menggabungkan Chromadb dengan LLM untuk membentuk kain. Ini membolehkan kita mendapatkan jawapan yang sedar secara konteks dari dokumen dan juga dari model.

Langkah 3: Memulakan sistem RAG

 # Ajukan soalan
respons = rag_chain.invoke ({"query": "bagaimana saya boleh menggunakan qwen dengan mcp. sila beri saya panduan langkah demi langkah bersama dengan coretan kod yang diperlukan"})
paparan (markdown (respons ['hasil'])))
Salin selepas log masuk
  • Pelaksanaan pertanyaan: Kaedah RAG_CHAIN_INVOKE () akan menghantar pertanyaan pengguna ke sistem RAG, yang kemudiannya mengambil bahagian-bahagian konteks yang relevan dari kedai dokumen (vektor db) dan menghasilkan jawapan yang menyedari konteks.

Output

Cara Membina Sistem RAG dan Ejen AI dengan QWEN3

Cara Membina Sistem RAG dan Ejen AI dengan QWEN3

Cara Membina Sistem RAG dan Ejen AI dengan QWEN3

Anda boleh mencari kod lengkap di sini.

Aplikasi QWEN3

Berikut adalah beberapa lagi aplikasi Qwen3 di seluruh industri:

  • Pengekodan automatik: QWEN3 boleh menjana, debug, dan menyediakan dokumentasi untuk kod, yang membantu pemaju menyelesaikan kesilapan tanpa usaha manual. Model parameter 22B cemerlang dalam pengekodan, dengan persembahan yang setanding dengan model seperti DeepSeek-R1, Gemini 2.5 Pro, dan Openai's O3-mini.
  • Pendidikan dan Penyelidikan: Arkib QWEN3 Ketepatan Tinggi dalam Matematik, Fizik, dan Penyelesaian Masalah Penalaran Logik. Ia juga menyaingi Gemini 2.5 Pro, sementara cemerlang dengan model seperti Openai's O1, O3-Mini, DeepSeek-R1, dan Grok 3 beta.
  • Integrasi Alat Berasaskan Ejen: QWEN3 juga membawa tugas-tugas ejen AI dengan membenarkan penggunaan alat luaran, API, dan MCP untuk aliran kerja multi-langkah dan pelbagai agen dengan templat alat yang memanggilnya, yang seterusnya memudahkan interaksi agentik.
  • Tugas Penalaran Lanjutan: Qwen3 menggunakan keupayaan pemikiran yang luas untuk memberikan respons yang optimum dan tepat. Model ini menggunakan pemikiran rantaian untuk tugas-tugas yang kompleks dan mod yang tidak berfikir untuk kelajuan yang dioptimumkan.

Kesimpulan

Dalam artikel ini, kami telah belajar bagaimana untuk membina sistem AI dan RAG yang berkuasa QWEN3. Prestasi tinggi Qwen3, sokongan berbilang bahasa, dan keupayaan penalaran maju menjadikannya pilihan yang kuat untuk pengambilan pengetahuan dan tugas berasaskan ejen. Dengan mengintegrasikan QWEN3 ke dalam saluran paip RAG dan agentik, kita boleh mendapatkan tindak balas yang tepat, konteks, dan lancar, menjadikannya pesaing yang kuat untuk aplikasi dunia sebenar untuk sistem berkuasa AI.

Soalan yang sering ditanya

Q1. Bagaimanakah Qwen3 berbeza dari LLM lain untuk kain?

A. QWEN3 mempunyai keupayaan penalaran hibrid yang membolehkannya membuat perubahan dinamik dalam respons, yang membolehkannya mengoptimumkan aliran kerja RAG untuk analisis pengambilan dan kompleks.

S2. Apakah alat yang diperlukan untuk mengintegrasikan kain?

A. Ia merangkumi pangkalan data vektor, model embedding, alur kerja Langchain dan API untuk mengakses model.

Q3. Bolehkah Qwen3 membenarkan alat Multistep Chaining dalam aliran kerja ejen?

Ya, dengan templat panggilan alat terbina dalam QWEN-Agent, kita boleh menghuraikan dan membolehkan operasi alat berurutan seperti carian web, analisis data, dan generasi laporan.

Q4. Bagaimana untuk mengurangkan latensi dalam tindak balas ejen Qwen3?

A. Seseorang dapat mengurangkan latensi dalam banyak cara, beberapa daripadanya adalah:
1. Penggunaan model MOE seperti QWEN3-30B-A3B, yang hanya mempunyai 3 bilion parameter aktif.
2. Dengan menggunakan kesimpulan yang dioptimumkan GPU.

S5. Apakah kesilapan biasa semasa melaksanakan ejen QWEN3?

A. Kesalahan biasa termasuk:
1. Kegagalan permulaan pelayan MCP, seperti pemformatan JSON dan init.
2. Kesalahan pasangan tindak balas alat.
3. Limpahan tetingkap konteks.

Atas ialah kandungan terperinci Cara Membina Sistem RAG dan Ejen AI dengan QWEN3. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

Video Face Swap

Video Face Swap

Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas

Tutorial Java
1664
14
Tutorial PHP
1266
29
Tutorial C#
1239
24
Bermula dengan Meta Llama 3.2 - Analytics Vidhya Bermula dengan Meta Llama 3.2 - Analytics Vidhya Apr 11, 2025 pm 12:04 PM

Meta's Llama 3.2: Lompat ke hadapan dalam Multimodal dan Mobile AI META baru -baru ini melancarkan Llama 3.2, kemajuan yang ketara dalam AI yang memaparkan keupayaan penglihatan yang kuat dan model teks ringan yang dioptimumkan untuk peranti mudah alih. Membina kejayaan o

10 Pelanjutan pengekodan AI generatif dalam kod vs yang mesti anda pelajari 10 Pelanjutan pengekodan AI generatif dalam kod vs yang mesti anda pelajari Apr 13, 2025 am 01:14 AM

Hei ada, pengekodan ninja! Apa tugas yang berkaitan dengan pengekodan yang anda telah merancang untuk hari itu? Sebelum anda menyelam lebih jauh ke dalam blog ini, saya ingin anda memikirkan semua kesengsaraan yang berkaitan dengan pengekodan anda-lebih jauh menyenaraikan mereka. Selesai? - Let &#8217

AV Bytes: Meta ' s llama 3.2, Google's Gemini 1.5, dan banyak lagi AV Bytes: Meta ' s llama 3.2, Google's Gemini 1.5, dan banyak lagi Apr 11, 2025 pm 12:01 PM

Landskap AI minggu ini: Badai kemajuan, pertimbangan etika, dan perdebatan pengawalseliaan. Pemain utama seperti Openai, Google, Meta, dan Microsoft telah melepaskan kemas kini, dari model baru yang terobosan ke peralihan penting di LE

Menjual Strategi AI kepada Pekerja: Manifesto CEO Shopify Menjual Strategi AI kepada Pekerja: Manifesto CEO Shopify Apr 10, 2025 am 11:19 AM

Memo CEO Shopify Tobi Lütke baru -baru ini dengan berani mengisytiharkan penguasaan AI sebagai harapan asas bagi setiap pekerja, menandakan peralihan budaya yang signifikan dalam syarikat. Ini bukan trend seketika; Ini adalah paradigma operasi baru yang disatukan ke p

GPT-4O vs OpenAI O1: Adakah model Openai baru bernilai gembar-gembur? GPT-4O vs OpenAI O1: Adakah model Openai baru bernilai gembar-gembur? Apr 13, 2025 am 10:18 AM

Pengenalan OpenAI telah mengeluarkan model barunya berdasarkan seni bina "strawberi" yang sangat dijangka. Model inovatif ini, yang dikenali sebagai O1, meningkatkan keupayaan penalaran, yang membolehkannya berfikir melalui masalah MOR

Panduan Komprehensif untuk Model Bahasa Visi (VLMS) Panduan Komprehensif untuk Model Bahasa Visi (VLMS) Apr 12, 2025 am 11:58 AM

Pengenalan Bayangkan berjalan melalui galeri seni, dikelilingi oleh lukisan dan patung yang terang. Sekarang, bagaimana jika anda boleh bertanya setiap soalan dan mendapatkan jawapan yang bermakna? Anda mungkin bertanya, "Kisah apa yang anda ceritakan?

3 Kaedah untuk menjalankan Llama 3.2 - Analytics Vidhya 3 Kaedah untuk menjalankan Llama 3.2 - Analytics Vidhya Apr 11, 2025 am 11:56 AM

Meta's Llama 3.2: Powerhouse AI Multimodal Model multimodal terbaru Meta, Llama 3.2, mewakili kemajuan yang ketara dalam AI, yang membanggakan pemahaman bahasa yang dipertingkatkan, ketepatan yang lebih baik, dan keupayaan penjanaan teks yang unggul. Keupayaannya t

Penyusunan Tahunan Terkini Teknik Kejuruteraan Terbaik Penyusunan Tahunan Terkini Teknik Kejuruteraan Terbaik Apr 10, 2025 am 11:22 AM

Bagi anda yang mungkin baru dalam lajur saya, saya secara meluas meneroka kemajuan terkini di AI di seluruh papan, termasuk topik seperti yang terkandung AI, penaakulan AI, terobosan berteknologi tinggi di AI, kejuruteraan segera, latihan AI, Fielding of AI, AI Re Re,

See all articles