Jadual Kandungan
Hasil pembelajaran
Jadual Kandungan
Apakah data sintetik?
Mengapa kita memerlukan data sintetik hari ini?
Kesan terhadap prestasi LLM dan kecil LM
Struktur projek dan persediaan persekitaran
Buat persekitaran conda
Pasang perpustakaan di conda env
Pelaksanaan projek
Mengimport perpustakaan
Pelaksanaan kod
Struktur kelas soal selidik
Permulaan
Pembersihan json
Parsing respons
Kegigihan data
Generasi yang teguh
Memaparkan hasil di terminal
Menguji automasi
Kesimpulan
Takeaways utama
Soalan yang sering ditanya
Rumah Peranti teknologi AI Penjanaan data sintetik tempatan

Penjanaan data sintetik tempatan

Mar 13, 2025 pm 01:13 PM

Anda telah mendengar kutipan terkenal "Data adalah Minyak Baru" oleh ahli matematik British Clive Humby, ia adalah petikan yang paling berpengaruh yang menggambarkan kepentingan data pada abad ke -21 tetapi, selepas perkembangan letupan model bahasa yang besar dan latihannya apa yang kita tidak mempunyai hak adalah data. Kerana kelajuan pembangunan dan kelajuan latihan model LLM hampir melampaui kelajuan penjanaan data manusia. Penyelesaiannya menjadikan data lebih halus dan khusus untuk tugas atau penjanaan data sintetik. Yang pertama adalah lebih banyak tugas pakar domain tetapi yang terakhir lebih menonjol dengan kelaparan besar masalah hari ini.

Data latihan berkualiti tinggi kekal sebagai kesesakan kritikal. Pos blog ini meneroka pendekatan praktikal untuk menghasilkan data sintetik menggunakan Llama 3.2 dan Ollama. Ia akan menunjukkan bagaimana kita boleh membuat kandungan pendidikan berstruktur secara programatik.

Hasil pembelajaran

  • Memahami kepentingan dan teknik penjanaan data sintetik tempatan untuk meningkatkan latihan model pembelajaran mesin.
  • Ketahui cara melaksanakan penjanaan data sintetik tempatan untuk membuat dataset berkualiti tinggi sambil mengekalkan privasi dan keselamatan.
  • Dapatkan pengetahuan praktikal untuk melaksanakan pengendalian ralat yang mantap dan mekanisme semula dalam saluran paip penjanaan data.
  • Belajar pengesahan JSON, teknik pembersihan, dan peranan mereka dalam mengekalkan output yang konsisten dan boleh dipercayai.
  • Membangunkan kepakaran dalam merancang dan menggunakan model Pydantic untuk memastikan integriti skema data.

Jadual Kandungan

  • Apakah data sintetik?
  • Mengapa kita memerlukan data sintetik hari ini?
  • Kesan terhadap prestasi LLM dan kecil LM
  • Struktur projek dan persediaan persekitaran
  • Pelaksanaan projek
  • Generasi yang teguh
  • Menguji automasi
  • Kesimpulan
  • Soalan yang sering ditanya

Apakah data sintetik?

Data sintetik merujuk kepada maklumat yang dihasilkan secara buatan yang meniru ciri-ciri data dunia sebenar sambil mengekalkan corak penting dan sifat statistik. Ia dibuat menggunakan model algoritma, simulasi, atau AI untuk menangani kebimbangan privasi, menambah data terhad, atau sistem ujian dalam senario terkawal. Tidak seperti data sebenar, data sintetik boleh disesuaikan dengan keperluan tertentu, memastikan kepelbagaian, keseimbangan, dan skalabiliti. Ia digunakan secara meluas dalam bidang seperti pembelajaran mesin, penjagaan kesihatan, kewangan, dan sistem autonomi untuk melatih model, mengesahkan algoritma, atau mensimulasikan persekitaran. Data sintetik menjembatani jurang antara kekurangan data dan aplikasi dunia sebenar sambil mengurangkan risiko etika dan pematuhan.

Mengapa kita memerlukan data sintetik hari ini?

Permintaan untuk data sintetik telah berkembang pesat disebabkan oleh beberapa faktor

Penjanaan data sintetik tempatan

  • Peraturan Privasi Data : Dengan GDPR dan peraturan yang serupa, data sintetik menawarkan alternatif yang selamat untuk pembangunan dan ujian
  • Kecekapan kos: Mengumpul dan memberi penjelasan data sebenar adalah mahal dan memakan masa.
  • Skalabiliti : Data sintetik dapat dihasilkan dalam kuantiti yang banyak dengan variasi terkawal
  • Liputan Kes Kelebihan: Kita boleh menjana data untuk senario yang jarang berlaku yang mungkin sukar dikumpulkan secara semula jadi
  • Prototaip Rapid: Penyebaran cepat pada model ML tanpa menunggu pengumpulan data sebenar.
  • Kurang berat sebelah: Data yang dikumpulkan dari dunia nyata mungkin rawan kesilapan dan penuh dengan kecenderungan gender, teks kaum, dan tidak selamat untuk kata -kata kanak -kanak supaya membuat model dengan jenis data ini, tingkah laku model juga sememangnya dengan kecenderungan ini. Dengan data sintetik, kita dapat mengawal tingkah laku ini dengan mudah.

Kesan terhadap prestasi LLM dan kecil LM

Data sintetik telah menunjukkan hasil yang menjanjikan dalam meningkatkan kedua -dua model bahasa besar dan kecil

Penjanaan data sintetik tempatan

  • Kecekapan penalaan halus: Model-model yang disesuaikan dengan data sintetik berkualiti tinggi sering menunjukkan prestasi yang setanding dengan mereka yang terlatih pada data sebenar
  • Adaptasi Domain: Data sintetik membantu menjembatani jurang domain dalam aplikasi khusus
  • Peningkatan Data: Menggabungkan data sintetik dan sebenar sering menghasilkan hasil yang lebih baik menggunakan sama ada sahaja.

Struktur projek dan persediaan persekitaran

Dalam bahagian berikut, kami akan memecahkan susun atur projek dan membimbing anda melalui mengkonfigurasi persekitaran yang diperlukan.

 projek/
├── Main.py
├── keperluan.txt
├── Readme.md
└── english_qa_new.json
Salin selepas log masuk

Sekarang kami akan menubuhkan persekitaran projek kami menggunakan Conda. Ikuti langkah di bawah

Buat persekitaran conda

 $ conda create -n sintetik -data python = 3.11

# mengaktifkan env yang baru dibuat

$ conda mengaktifkan data sintetik
Salin selepas log masuk

Pasang perpustakaan di conda env

 PIP Pasang Pydantic Langchain-Community
PIP Pasang Langchain-ollama
Salin selepas log masuk

Sekarang kita semua bersedia untuk memulakan pelaksanaan kod

Pelaksanaan projek

Dalam bahagian ini, kami akan menyelidiki pelaksanaan praktikal projek, yang meliputi setiap langkah secara terperinci.

Mengimport perpustakaan

Sebelum memulakan projek, kami akan membuat nama fail main.py dalam root projek dan mengimport semua perpustakaan pada fail tersebut:

 Dari Pydantic Import Basemodel, Field, ValidationError
dari langchain.prompts import promptplate
dari langchain_ollama import ollamallm
dari menaip senarai import
Import JSON
import uuid
Import Re
dari laluan import patlib
dari masa tidur import
Salin selepas log masuk

Kini sudah tiba masanya untuk meneruskan bahagian pelaksanaan kod pada fail main.py

Pertama, kita mulakan dengan melaksanakan skema data.

Skema Data Bahasa Inggeris adalah model Pydantic yang memastikan data kami yang dihasilkan mengikuti struktur yang konsisten dengan medan yang diperlukan dan penjanaan ID automatik.

Pelaksanaan kod

 Kelas Bahasa Inggeris Question (Basemodel):
    ID: str = medan (
        default_factory = lambda: str (uuid.uuid4 ()),
        Penerangan = "Pengenal pasti unik untuk soalan",
    )
    Kategori: str = medan (..., keterangan = "Jenis Soalan")
    Soalan: str = medan (..., keterangan = "Soalan Bahasa Inggeris")
    Jawapan: str = medan (..., keterangan = "jawapan yang betul untuk soalan")
    pemikiran_process: str = medan (
        ..., keterangan = "Penjelasan proses penalaran untuk sampai di jawapannya"
    )
Salin selepas log masuk

Sekarang, bahawa kami telah mencipta kelas data bahasa Inggeris.

Kedua, kita akan mula melaksanakan kelas soal selidik. Kelas ini adalah teras pelaksanaan projek.

Struktur kelas soal selidik

 soal selidik kelas:
    def __init __ (diri, model_name: str, output_file: jalan):
        lulus

    def clean_json_string (diri, teks: str) -> str:
        lulus

    def parse_response (diri, hasil: str) -> englishquestion:
        lulus


    def penjana_with_retries (diri, kategori: str, retries: int = 3) -> englishquestion:
        lulus

    def Generate_Questions (
        diri, kategori: senarai [str], lelaran: int
    ) -> Senarai [Bahasa Inggeris Question]:
        lulus

    def save_to_json (diri, soalan: englishquestion):
        lulus

    def load_existing_data (self) -> senarai [dict]:
        lulus
Salin selepas log masuk

Mari langkah demi langkah melaksanakan kaedah utama

Permulaan

Inisialisasi kelas dengan model bahasa, templat segera, dan fail output. Dengan ini, kami akan membuat contoh Olamallm dengan Model_Name dan menubuhkan prompttemplate untuk menghasilkan QA dalam format JSON yang ketat.

Pelaksanaan Kod:

 def __init __ (diri, model_name: str, output_file: jalan):
        self.llm = ollamallm (model = model_name)
        self.prompt_template = promptTemplate (
            input_variables = ["kategori"],
            templat = "" "
            Menghasilkan soalan bahasa Inggeris yang menguji pemahaman dan penggunaan.
            Fokus pada {kategori} .Question akan seperti mengisi kekosongan, satu pelapik dan mut tidak jenis mcq. Tulis output dalam format JSON yang ketat ini:

            {{
                "Soalan": "<soalan khusus anda>",
                "Jawapan": "<jawapan yang betul>",
                "Thought_process": "Jelaskan alasan untuk tiba di jawapan>"
            }}

            Jangan sertakan sebarang teks di luar objek JSON.
            "" ",
        )
        self.output_file = output_file
        self.output_file.touch (exist_ok = true)</jawapan></soalan>
Salin selepas log masuk

Pembersihan json

Tanggapan yang akan kita peroleh dari LLM semasa proses penjanaan akan mempunyai banyak aksara tambahan yang tidak perlu yang mungkin memberi data yang dihasilkan, jadi anda mesti lulus data ini melalui proses pembersihan.

Di sini, kami akan membetulkan isu pemformatan biasa dalam kekunci/nilai JSON menggunakan regex, menggantikan watak -watak yang bermasalah seperti Newline, dan watak khas.

Pelaksanaan Kod:

 def clean_json_string (diri, teks: str) -> str:
        "" "Versi yang lebih baik untuk mengendalikan JSON yang cacat atau tidak lengkap." ""
        start = text.find ("{")
        end = text.rfind ("}")

        jika start == -1 atau end == -1:
            Raise ValueError (f "No Json Object Found. Response adalah: {text}")

        json_str = teks [Mula: akhir 1]

        # Keluarkan watak khas yang mungkin memecahkan parsing json
        json_str = json_str.replace ("\ n", "") .replace ("\ r", "")
        json_str = re.sub (r "[^\ x20- \ x7e]", "", json_str)

        # Betulkan masalah pemformatan JSON biasa
        json_str = re.sub (
            r '(? <h3 id="Parsing-respons"> Parsing respons</h3><p> Kaedah parsing akan menggunakan proses pembersihan di atas untuk membersihkan respons dari LLM, mengesahkan respons untuk konsistensi, menukar JSON yang dibersihkan ke dalam kamus python, dan memetakan kamus ke objek bahasa Inggeris.</p><p> <strong>Pelaksanaan Kod:</strong></p><pre class="brush:php;toolbar:false"> def parse_response (diri, hasil: str) -> englishquestion:
        "" "Mengurangkan tindak balas LLM dan mengesahkannya terhadap skema." ""
        dibersihkan_json = self.clean_json_string (hasil)
        parsed_result = json.loads (cleaned_json)
        kembali Bahasa Inggeris Question (** parsed_result)
Salin selepas log masuk

Kegigihan data

Untuk, penjanaan data yang berterusan, walaupun kita boleh menggunakan beberapa pangkalan data NoSQL (MongoDB, dll) untuk ini, di sini kita menggunakan fail JSON yang mudah untuk menyimpan data yang dihasilkan.

Pelaksanaan Kod:

 def load_existing_data (self) -> senarai [dict]:
        "" "Muatkan soalan yang ada dari fail JSON." ""
        Cuba:
            dengan terbuka (self.output_file, "r") sebagai f:
                kembali json.load (f)
        Kecuali (FileNotFoundError, JSON.JSONDECODEError):
            kembali []
Salin selepas log masuk

Generasi yang teguh

Dalam fasa penjanaan data ini, kami mempunyai dua kaedah yang paling penting:

  • Menjana dengan mekanisme semula
  • Kaedah penjanaan soalan

Tujuan mekanisme semula adalah untuk memaksa automasi untuk menghasilkan tindak balas sekiranya berlaku kegagalan. Ia cuba menghasilkan soalan beberapa kali (lalai adalah tiga kali) dan akan log ralat dan menambah kelewatan antara pengambilan semula. Ia juga akan menimbulkan pengecualian jika semua percubaan gagal.

Pelaksanaan Kod:

 def penjana_with_retries (diri, kategori: str, retries: int = 3) -> englishquestion:
        Untuk percubaan dalam julat (retries):
            Cuba:
                hasil = self.prompt_template | self.llm
                respons = respon
                kembali self.parse_response (respons)
            Kecuali pengecualian sebagai e:
                Cetak (
                    f "percubaan {percubaan 1}/{retries} gagal untuk kategori '{kategori}': {e}"
                )
                tidur (2) # kelewatan kecil sebelum mencuba
        Meningkatkan ValueError (
            f "gagal memproses kategori '{kategori}' selepas {retries} percubaan."
        )
Salin selepas log masuk

Kaedah penjanaan soalan akan menghasilkan pelbagai soalan untuk senarai kategori dan menyimpannya dalam storan (di sini fail JSON). Ia akan melangkah ke atas kategori dan panggilan penjanaan_with_retries untuk setiap kategori. Dan pada akhirnya, ia akan menjimatkan setiap soalan yang berjaya dihasilkan menggunakan kaedah Save_TO_JSON.

 def Generate_Questions (
        diri, kategori: senarai [str], lelaran: int
    ) -> Senarai [Bahasa Inggeris Question]:
        "" "Menjana pelbagai soalan untuk senarai kategori." ""
        all_questions = []
        untuk _ dalam julat (lelaran):
            Untuk kategori dalam kategori:
                Cuba:
                    soalan = self.generate_with_retries (kategori)
                    self.save_to_json (soalan)
                    all_questions.append (soalan)
                    cetak (f "Soalan yang berjaya dijana untuk Kategori: {kategori}")
                Kecuali (ValidationError, ValueError) sebagai E:
                    cetak (f "kategori pemprosesan ralat '{kategori}': {e}")
        Kembali All_Questions
Salin selepas log masuk

Memaparkan hasil di terminal

Untuk mendapatkan idea tentang apa yang dihasilkan dari LLM di sini adalah fungsi percetakan yang mudah.

 Def Display_Questions (Soalan: Senarai [EnglishQuestion]):
    Cetak ("Soalan Bahasa Inggeris \ Ngenerated:")
    untuk soalan dalam soalan:
        cetak ("\ n ---")
        cetak (f "id: {soalan.id}")
        cetak (f "soalan: {soal selidik.question}")
        cetak (f "jawapan: {soal selidik.answer}")
        cetak (f "proses pemikiran: {soal selidik.thought_process}")
Salin selepas log masuk

Menguji automasi

Sebelum menjalankan projek anda buat fail english_qa_new.json pada root projek.

 jika __name__ == "__main__":
    Output_file = path ("english_qa_new.json")
    penjana = soal selidik (model_name = "llama3.2", output_file = output_file)

    kategori = [
        "penggunaan perkataan",
        "Phrasal ver",
        "perbendaharaan kata",
        "Idiom",
    ]
    lelaran = 2

    Generated_questions = Generator.Generate_Questions (kategori, lelaran)
    Display_Questions (Generated_questions)
Salin selepas log masuk

Sekarang, pergi ke terminal dan taip:

 python main.py
Salin selepas log masuk

Output:

Penjanaan data sintetik tempatan

Soalan -soalan ini akan disimpan dalam akar projek anda. Soalan yang disimpan kelihatan seperti:

Penjanaan data sintetik tempatan

Semua kod yang digunakan dalam projek ini ada di sini.

Kesimpulan

Penjanaan data sintetik telah muncul sebagai penyelesaian yang kuat untuk menangani permintaan yang semakin meningkat untuk dataset latihan berkualiti tinggi dalam era kemajuan pesat dalam AI dan LLMS. Dengan memanfaatkan alat seperti Llama 3.2 dan Ollama, bersama-sama dengan rangka kerja yang teguh seperti Pydantic, kita boleh membuat dataset berstruktur, berskala, dan bias yang disesuaikan dengan keperluan khusus. Pendekatan ini bukan sahaja mengurangkan kebergantungan pada pengumpulan data dunia yang mahal dan memakan masa tetapi juga memastikan pematuhan privasi dan etika. Semasa kami memperbaiki metodologi ini, data sintetik akan terus memainkan peranan penting dalam memacu inovasi, meningkatkan prestasi model, dan membuka peluang baru dalam pelbagai bidang.

Takeaways utama

  • Penjanaan data sintetik tempatan membolehkan penciptaan dataset yang pelbagai yang dapat meningkatkan ketepatan model tanpa menjejaskan privasi.
  • Melaksanakan penjanaan data sintetik tempatan dapat meningkatkan keselamatan data dengan meminimumkan pergantungan pada data sensitif dunia nyata.
  • Data sintetik memastikan privasi, mengurangkan bias, dan menurunkan kos pengumpulan data.
  • Dataset yang disesuaikan meningkatkan kesesuaian merentasi aplikasi AI dan LLM yang pelbagai.
  • Data sintetik membuka jalan bagi pembangunan AI etika, cekap, dan inovatif.

Soalan yang sering ditanya

Q 1. Mengapa menggunakan Ollama dan bukan model berasaskan API?

A. Ollama menyediakan keupayaan penempatan tempatan, mengurangkan kos dan latensi sambil menawarkan lebih banyak kawalan ke atas proses penjanaan.

Q 2. Bagaimana kita dapat memastikan kualiti soalan yang dihasilkan?

A. Untuk mengekalkan kualiti, pelaksanaan menggunakan pengesahan Pydantic, mekanisme semula, dan pembersihan JSON. Metrik tambahan dan mengekalkan pengesahan boleh dilaksanakan.

Q 3. Apakah batasan pendekatan ini?

A. LLM tempatan mungkin mempunyai output berkualiti rendah berbanding dengan model yang lebih besar, dan kelajuan generasi boleh dibatasi oleh sumber pengkomputeran tempatan.

Q4. Adakah data sintetik selamat dan etika untuk digunakan?

A. Ya, data sintetik memastikan privasi dengan menghapuskan maklumat yang boleh dikenalpasti dan menggalakkan pembangunan AI etika dengan menangani kecenderungan data dan mengurangkan kebergantungan pada data sensitif dunia nyata.

S5. Apakah cabaran utama dalam menggunakan data sintetik?

A. Cabaran termasuk memastikan realisme data, mengekalkan kaitan domain, dan menyelaraskan ciri-ciri data sintetik dengan kes penggunaan dunia sebenar untuk latihan model yang berkesan.

Atas ialah kandungan terperinci Penjanaan data sintetik tempatan. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

Video Face Swap

Video Face Swap

Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Artikel Panas

<🎜>: Bubble Gum Simulator Infinity - Cara Mendapatkan dan Menggunakan Kekunci Diraja
3 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
Nordhold: Sistem Fusion, dijelaskan
3 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
Mandragora: Whispers of the Witch Tree - Cara Membuka Kunci Cangkuk Bergelut
3 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas

Tutorial Java
1666
14
Tutorial PHP
1273
29
Tutorial C#
1253
24
10 Pelanjutan pengekodan AI generatif dalam kod vs yang mesti anda pelajari 10 Pelanjutan pengekodan AI generatif dalam kod vs yang mesti anda pelajari Apr 13, 2025 am 01:14 AM

Hei ada, pengekodan ninja! Apa tugas yang berkaitan dengan pengekodan yang anda telah merancang untuk hari itu? Sebelum anda menyelam lebih jauh ke dalam blog ini, saya ingin anda memikirkan semua kesengsaraan yang berkaitan dengan pengekodan anda-lebih jauh menyenaraikan mereka. Selesai? - Let &#8217

GPT-4O vs OpenAI O1: Adakah model Openai baru bernilai gembar-gembur? GPT-4O vs OpenAI O1: Adakah model Openai baru bernilai gembar-gembur? Apr 13, 2025 am 10:18 AM

Pengenalan OpenAI telah mengeluarkan model barunya berdasarkan seni bina "strawberi" yang sangat dijangka. Model inovatif ini, yang dikenali sebagai O1, meningkatkan keupayaan penalaran, yang membolehkannya berfikir melalui masalah MOR

Panduan Komprehensif untuk Model Bahasa Visi (VLMS) Panduan Komprehensif untuk Model Bahasa Visi (VLMS) Apr 12, 2025 am 11:58 AM

Pengenalan Bayangkan berjalan melalui galeri seni, dikelilingi oleh lukisan dan patung yang terang. Sekarang, bagaimana jika anda boleh bertanya setiap soalan dan mendapatkan jawapan yang bermakna? Anda mungkin bertanya, "Kisah apa yang anda ceritakan?

Bagaimana untuk menambah lajur dalam SQL? - Analytics Vidhya Bagaimana untuk menambah lajur dalam SQL? - Analytics Vidhya Apr 17, 2025 am 11:43 AM

Pernyataan Jadual Alter SQL: Menambah lajur secara dinamik ke pangkalan data anda Dalam pengurusan data, kebolehsuaian SQL adalah penting. Perlu menyesuaikan struktur pangkalan data anda dengan cepat? Pernyataan Jadual ALTER adalah penyelesaian anda. Butiran panduan ini menambah colu

Pixtral -12b: Model Multimodal Pertama Mistral Ai ' Pixtral -12b: Model Multimodal Pertama Mistral Ai ' Apr 13, 2025 am 11:20 AM

Pengenalan Mistral telah mengeluarkan model multimodal yang pertama, iaitu Pixtral-12B-2409. Model ini dibina atas parameter 12 bilion Mistral, NEMO 12B. Apa yang membezakan model ini? Ia kini boleh mengambil kedua -dua gambar dan Tex

Bagaimana Membina Ejen AI Multimodal Menggunakan Rangka Kerja AGNO? Bagaimana Membina Ejen AI Multimodal Menggunakan Rangka Kerja AGNO? Apr 23, 2025 am 11:30 AM

Semasa bekerja pada AIS AI, pemaju sering mendapati diri mereka menavigasi perdagangan antara kelajuan, fleksibiliti, dan kecekapan sumber. Saya telah meneroka rangka kerja AI yang agentik dan menjumpai Agno (sebelum ini adalah Phi-

Beyond the Llama Drama: 4 Benchmarks Baru Untuk Model Bahasa Besar Beyond the Llama Drama: 4 Benchmarks Baru Untuk Model Bahasa Besar Apr 14, 2025 am 11:09 AM

Penanda Aras Bermasalah: Kajian Kes Llama Pada awal April 2025, Meta melancarkan model Llama 4 suite, dengan metrik prestasi yang mengagumkan yang meletakkan mereka dengan baik terhadap pesaing seperti GPT-4O dan Claude 3.5 sonnet. Pusat ke LAUNC

Bagaimana permainan ADHD, alat kesihatan & chatbots AI mengubah kesihatan global Bagaimana permainan ADHD, alat kesihatan & chatbots AI mengubah kesihatan global Apr 14, 2025 am 11:27 AM

Bolehkah permainan video meringankan kebimbangan, membina fokus, atau menyokong kanak -kanak dengan ADHD? Memandangkan cabaran penjagaan kesihatan melonjak di seluruh dunia - terutamanya di kalangan belia - inovator beralih kepada alat yang tidak mungkin: permainan video. Sekarang salah satu hiburan terbesar di dunia Indus

See all articles