Skip to Content

STOP. Using AI Right now - Pewdiepie

Oke, dengarkan baik-baik. Kalian sudah lihat video saya. Kalian lihat 10 GPU. Kalian mungkin berpikir, "Felix, lu gila. Buat apa semua itu? Nggak praktis."

Dan kalian benar. Ini nggak praktis.

Ini bukan soal kepraktisan. Ini soal obsesi. Ini soal dorongan aneh untuk max out—untuk melihat seberapa jauh sebuah batasan bisa didorong, hanya... karena kita bisa. Gua sadar gua punya tendensi ini, dan mungkin lu juga.

Gua nggak cuma mau main game. Gua mau membongkar mesinnya. Gua mau tahu apa yang bisa gua lakukan dengan kekuatan 6 dimensi ini. Dan ternyata, jawabannya jauh lebih gila dari sekadar main Minecraft.

Gua di sini bukan sebagai "YouTuber". Gua di sini sebagai sesama tinkerer (pengoprek) yang jatuh ke rabbit hole yang sangat dalam. Dan gua sudah siapkan materi ini buat lu, biar lu bisa ikut merasakan apa yang gua temukan. Ini bukan omong kosong AI buzzword yang lu lihat di hotel atau di YouTube. Ini real stuff.

Mari kita mulai.

🔬 Modul 1: Mengubah Komputer Jadi Aset Kemanusiaan (Bukan Cuma Uang)

Banyak orang lihat setup kayak punya gua dan mikir, "Wah, bisa disewain tuh buat cloud computing atau mining crypto." Ya, bisa. Tapi itu buat shtblo. Ada cara yang jauh lebih keren untuk menggunakan kekuatan komputasi lu.

Konsep: Distributed Computing (Folding@Home)

Pada dasarnya, ilmuwan di seluruh dunia perlu menjalankan simulasi super kompleks untuk memahami penyakit—gimana protein "melipat" (folding). Ini penting untuk riset Kanker, Alzheimer, dan lainnya. Masalahnya, mereka nggak punya cukup supercomputer.

Di sinilah kita masuk. Folding@Home adalah proyek (sah 100%, bukan scam, udah ada lama banget) yang membiarkan lu "menyumbangkan" siklus CPU dan GPU lu yang nganggur untuk menjalankan simulasi kecil ini. Komputer lu jadi bagian dari mini data center global.

Sudut Pandang yang Jarang Dilihat

Orang terobsesi dengan leaderboard di game. Gua juga. Tapi ini leaderboard amal. Nggak ada yang lebih flex daripada bilang, "Oh ya, PC gua lagi bantu riset Alzheimer pas gua tidur." Ini mengubah mesin lu dari sekadar alat konsumsi (main game, nonton) menjadi alat kontribusi. Dan jujur, melihat poin lu naik dan tahu itu actually membantu sains... itu rasanya jauh lebih memuaskan daripada profit crypto mana pun.

👉 Apa yang bisa kamu lakukan sekarang:

Download Folding@Home. Serius, lakuin sekarang. Proses setup-nya 30 menit. Setel supaya dia cuma jalan pas komputer lu lagi nganggur atau pas lu tidur. Nggak perlu 10 GPU. Komputer kentang lu pun bisa berkontribusi. Gabung di tim gua kalau mau, nomornya dikasih Tuhan: 1066966.

🔒 Modul 2: The Real Deal — Self-Hosting AI & Kedaulatan Data

Ini bagian utamanya. Ini rabbit hole yang gua masuki. Punya 10 GPU berarti gua harus coba menjalankan AI sendiri. Dan ini mengubah pandangan gua tentang AI, privasi, dan internet.

Konsep 1: Ilusi Privasi & "Hapus Chat"

Lu pasti pernah pakai AI publik. Dan mungkin lu pernah delete chat karena lu nggak sengaja ngetik sesuatu yang terlalu pribadi. Atau lu pakai incognito mode biar "aman".

Gua kasih tahu rahasianya: menghapus chat lu BUKAN berarti menghapus data lu.

Gua nemu ini pas mau berhenti langganan. Ada link tersembunyi di mana lu harus secara manual meminta mereka menghapus data lu. Mereka mengoleksi semua yang lu ketik, bahkan setelah lu hapus, untuk melatih model mereka.

Lucunya, kita udah biasa Google tahu segalanya tentang kita. Tapi pas AI yang ngomongin data pribadi kita balik ke kita... rasanya creepy.

👉 Apa yang bisa kamu lakukan sekarang:

Cari halaman "Data Deletion" atau "Privacy Settings" di layanan AI yang lu pakai. Lihat sendiri betapa susahnya mereka menyembunyikan opsi opt-out. Mulai sekarang, tanamkan di kepala lu: AI publik adalah telinga raksasa yang mendengar semua obrolan lu. Jangan pernah mengetik info sensitif di sana.

Konsep 2: Kekuatan Sejati Ada di Model Kecil (Bukan "Parameter")

Obsesi pertama gua adalah: "Model AI terbesar apa yang bisa gua jalankan?" Gua coba Llama 70B (70 miliar parameter). Gampang. Gua coba "Chad OS" 120B. Kenceng. Gua bahkan berhasil memaksa Qwen 235B (235 miliar!) jalan, walau cuma bisa bersin ke arahnya.

Tapi ini yang gua sadari: Model besar itu nggak praktis.

Model 235B itu lambat. Model 120B itu boros daya. Tapi model kecil? Gua tes model 2B (2 miliar parameter). Lu mungkin bisa jalanin ini di HP lu (walau lambat). Dan hasilnya? Dia super bodoh. Tapi super cepat.

Sudut Pandang yang Jarang Dilihat

Perang parameter (70B, 120B, 400B) itu cuma marketing gimmick. Model kecil (2B, 7B) itu luar biasa karena mereka "bodoh". Mereka nggak punya informasi hafalan internet. Mereka nggak halusinasi. Mereka cuma mesin penjawab yang cepat.

Mereka jadi "jenius" bukan karena parameter mereka, tapi karena toolset yang lu kasih ke mereka. Ini membawa kita ke konsep berikutnya...

👉 Apa yang bisa kamu lakukan sekarang:

Install Ollama atau LM Studio. Ini adalah cara termudah untuk menjalankan AI offline di komputer lu. Download model yang kecil dulu, seperti Phi-3 Mini (3.8B) atau Llama 3 8B. Rasakan sendiri seberapa cepat dia merespons. Jangan peduli jawabannya ngaco. Itu langkah pertama.

Konsep 3: Senjata Rahasia — RAG (Retrieval-Augmented Generation)

Inilah game changer-nya.

Model 2B yang bodoh tadi? Gimana kalau sebelum dia menjawab, lu kasih dia "buku contekan" untuk dibaca? Itulah RAG.

AI publik (kayak ChatGPT) tahu banyak hal karena dia menghafal seluruh internet. AI self-host gua nggak tahu apa-apa. Tapi, gua bisa kasih dia semua data Google gua yang udah gua download. Gua bisa kasih dia semua transkrip video gua.

Ketika gua tanya, "Siapa saya?"

AI offline gua (yang jalan di PC gua, nggak pakai internet) menjawab: "Anda Felix Kjellberg, alias PewDiePie. Ini alamat Anda, ini nomor telepon Anda..."

Gua kaget. Terus gua ingat, "Oh, iya. Kan gua yang ngasih data itu."

Ini poinnya: Data itu ada di komputer GUA. Bukan di server orang lain. AI gua bisa ngasih nomor telepon Marzia dalam 0.37 detik. Kenapa? Karena datanya ada di hard drive gua. Itu 100% pribadi.

👉 Apa yang bisa kamu lakukan sekarang:

Coba upload dokumen ke AI. Jangan cuma chat. Pakai tool seperti AnythingLLM atau PrivateGPT. Upload satu file PDF (mungkin materi kuliah atau laporan kerja). Sekarang, tanya AI-nya tentang isi PDF itu. Selamat, lu baru aja pakai RAG. Lu baru aja ngasih AI "otak" eksternal.

Konsep 4: Jangan Jadi "AI Bro" — Membangun Solusi Sendiri

Gua muak nonton video YouTube di mana "AI Bro" cuma ngomong, "Oke guys, sekarang kita masukin API key di sini... terus API key di sana..."

Mereka nggak menyelesaikan masalah. Mereka cuma menjual API. Mereka nggak membangun apa-apa.

Kalau lu self-host, lu dipaksa membangun. Gua bikin Web UI gua sendiri (karena lebih estetik). Gua tambahin fitur search (pakai API gratisan, bukan bayar). Gua tambahin memory (pakai database SQL lokal). Gua steal kode dari lab Cina buat bikin deep research.

Intinya adalah kedaulatan. Lu mengontrol toolset-nya.

👉 Apa yang bisa kamu lakukan sekarang:

Stop nonton video "Cara Menghasilkan Uang dengan API". Mulai cari "How to build RAG from scratch" atau "How to use Ollama with Python". Mulailah membangun sesuatu, sekecil apa pun. Bikin script simpel yang bisa ngobrol sama AI lokal lu. Itu jauh lebih memuaskan.

🤯 Modul 3: Pelajaran Terbesarnya (Yang Nggak Akan Orang Sadari)

Setelah semua ini—10 GPU, model 235B, bikin council AI yang saling bunuh, bikin swarm 64 AI jalan bareng—gua sadar dua hal:

  1. Gua lebih suka menjalankan AI daripada menggunakan AI. Proses troubleshooting, lihat loading screen vLLM, debugging kenapa council gua berkhianat... itulah keseruannya. Perjalanannya lebih penting dari tujuannya.
  2. Lu NGGAK PERLU komputer beast seharga $20.000. Itu overkill. Yang lu butuhkan adalah model 2B yang cepat, toolset (RAG + Search), dan kemauan untuk mengoprek.

Kekuatan sebenarnya bukan di parameter modelnya, tapi di tool yang lu berikan padanya. AI kecil + RAG (data pribadi lu) + Search (internet) = alat super yang 100% milik lu, 100% privat, dan 100% offline.

Itulah rahasianya.

🏁 Check-list: Misi Lu Selanjutnya (Kalau Lu Berani)

Oke, gua sudah yapping panjang lebar. Sekarang giliran lu. Jangan cuma nonton. Lakukan sesuatu. Ini checklist lu untuk memulai perjalanan ini:

  1. [ ] Kontribusi (15 Menit): Download Folding@Home. Setel. Lupakan. Biarkan PC lu berbuat baik saat lu tidur.
  2. [ ] Instalasi AI Lokal (30 Menit): Download Ollama atau LM Studio.
  3. [ ] Uji Coba Model Kecil (10 Menit): Di dalam Ollama/LM Studio, download satu model kecil (< 5 Miliar Parameter). Coba ajak ngobrol. Rasakan kecepatannya.
  4. [ ] Sadar Privasi (5 Menit): Buka akun AI publik lu (ChatGPT, dll) dan cari link "Data Deletion". Lihat sendiri betapa mereka nggak mau lu menemukannya.
  5. [ ] (Bonus) Cek Mesin Lu: Buka BIOS komputer lu. Cari kata "Bifurcation". Lihat apakah lu bisa "membelah" slot PCIe lu. Siapa tahu lu bisa pasang 10 GPU juga. Just kidding... or am I?

Sudah. Itu aja dari gua. Selamat datang di rabbit hole yang sebenarnya. Let's get folding.


📚 Glosarium: Dari Awam Jadi Paham (Edisi AI & Hardware)

Ini adalah istilah-istilah yang sering lu dengar tapi mungkin nggak paham 100%. Mari kita bedah:

1. PCIe Bifurcation (Bifurkasi PCIe)

  • Definisi Sederhana: Kemampuan motherboard untuk "membelah" satu slot fisik (slot kartu grafis) menjadi beberapa slot virtual yang lebih kecil.
  • Analogi Selang Air: Bayangkan slot PCIe x16 (slot GPU utama lu) adalah satu selang air super besar. Bifurcation adalah adaptor yang lu pasang di ujung selang itu, yang membelah alirannya menjadi empat selang kecil. Total air yang keluar tetap sama (bandwidth-nya sama), tapi sekarang lu bisa menyirami empat tanaman (kartu/device) sekaligus, bukan cuma satu.
  • Studi Kasus (di Video): Felix (PewDiePie) nggak punya 10 slot GPU di motherboard-nya. Jadi, dia pakai bifurcation untuk mengubah satu slot x16 menjadi empat slot x4. Ini memungkinkan dia memasang 4 GPU hanya dari satu slot fisik. Dia mengulangi ini sampai bisa pasang 10 GPU.

2. Undervolting (Turun Voltase)

  • Definisi Sederhana: Mengurangi jumlah daya (listrik/voltase) yang dikirim ke komponen (CPU/GPU) secara manual.
  • Analogi Kompor Gas: Anggap GPU 4090 lu adalah kompor gas. Pengaturan default pabrik itu memutar kenopnya sampai pol (api super besar). Panas? Iya. Boros gas? Banget. Undervolting adalah lu memutar balik kenop itu pelan-pelan sampai apinya tetap biru stabil. Masakan lu (performa game/AI) matangnya sama cepat, tapi lu hemat gas 50% dan kompornya nggak sepanas itu.
  • Studi Kasus (di Video): Felix menjalankan 10 GPU. Satu GPU 4090 bisa makan 475 Watt. Kalau 10, itu 4750 Watt—bisa meledak. Dengan undervolt, dia mengurangi konsumsi daya tiap GPU (misalnya jadi 300 Watt) sambil hampir mempertahankan performa penuh. Performanya turun mungkin 3%, tapi hemat dayanya 30%. Itu worth it.

3. Self-Hosting (Hosting Mandiri)

  • Definisi Sederhana: Menjalankan sebuah program atau layanan (seperti website, cloud storage, atau AI) di komputer pribadi lu sendiri, bukan di server perusahaan lain.
  • Analogi Restoran vs. Masak Sendiri:
    • Layanan Cloud (ChatGPT, Google Drive): Ini seperti lu makan di restoran. Praktis, cepat, enak. Tapi lu nggak tahu resep rahasianya, lu nggak tahu dapurnya bersih atau nggak, dan si pelayan (perusahaan) mencatat semua pesanan lu dan tahu semua obrolan lu di meja.
    • Self-Hosting: Ini seperti memasak di dapur lu sendiri. Lu harus beli bahan (install software), belajar resepnya (konfigurasi), dan masak sendiri (menjalankan server). Repot? Iya. Tapi lu tahu 100% bahannya apa, dan nggak ada orang lain yang mengintip dapur lu. Privasi lu 100% terjaga.
  • Studi Kasus (di Video): Felix nggak mau OpenAI "mencatat" semua obrolannya. Jadi dia self-host model AI di PC-nya. Datanya nggak pernah keluar dari rumahnya.

4. Parameter (pada Model AI)

  • Definisi Sederhana: Sederhananya, ini adalah "koneksi" atau "neuron" di dalam otak AI. Ini adalah nilai-nilai yang dipelajari AI selama proses training.
  • Analogi Jaring Laba-laba: Anggap otak AI adalah jaring laba-laba. Setiap titik sambungan di jaring itu adalah satu parameter.
    • Model Kecil (2B - 2 Miliar Parameter): Jaringnya kecil, simpel. Cukup untuk menangkap lalat. Dia nggak "tahu" banyak hal, tapi sangat ringan dan cepat dibuat.
    • Model Besar (120B - 120 Miliar Parameter): Jaringnya super besar, rapat, dan kompleks. Dia bisa menangkap apa saja dan "tahu" banyak hal (karena hafalannya banyak). Tapi jaring ini sangat berat dan butuh banyak energi untuk membangun dan menggunakannya.
  • Studi Kasus (di Video): Felix awalnya terobsesi menjalankan model 235B (jaring laba-laba terbesar). Tapi dia sadar, untuk kebutuhan sehari-hari, model 2B yang ringan + tools (RAG) jauh lebih efisien.

5. Quantization (Kuantisasi)

  • Definisi Sederhana: Proses "mengompres" atau mengecilkan ukuran file model AI agar bisa berjalan di hardware yang lebih lemah (seperti PC biasa atau HP) dengan mengorbankan sedikit akurasi.
  • Analogi File Musik WAV vs MP3: Bayangkan model AI asli adalah file audio WAV (kualitas studio). Ukurannya 100MB per lagu. Suaranya sempurna. Quantization adalah proses mengubah file WAV itu jadi MP3 128kbps. Ukurannya jadi cuma 3MB. Apakah ada detail suara yang hilang? Iya, audiophile mungkin bisa dengar bedanya. Tapi buat 99% orang, suaranya sama aja dan sekarang lu bisa menyimpan ribuan lagu di HP lu.
  • Studi Kasus (di Video): Model 235B aslinya (WAV) nggak akan muat di VRAM GPU Felix. Dia pakai versi quantized (MP3) dari model itu, yang ukurannya jauh lebih kecil sehingga bisa "muat" dan dijalankan.

6. RAG (Retrieval-Augmented Generation)

  • Definisi Sederhana: Ini adalah teknik paling penting. Daripada AI menjawab dari hafalan otaknya, AI mencari jawaban dari dokumen/database yang lu berikan (Retrieval), lalu merangkum temuan itu menjadi jawaban (Generation).
  • Analogi Ujian Open Book:
    • AI Biasa (tanpa RAG): Seperti ujian tutup buku. AI harus menjawab murni dari apa yang dia hafal (miliaran parameter). Kalau dia nggak hafal, dia ngarang (halusinasi).
    • AI dengan RAG: Seperti ujian open book. AI-nya (otaknya) mungkin nggak hafal apa-apa. Tapi lu kasih dia 10 buku teks (dokumen PDF, database, website). Saat ada soal, AI-nya membaca cepat buku-buku itu, menemukan halaman yang relevan, lalu menulis jawaban berdasarkan apa yang dia baca.
  • Studi Kasus (di Video): Felix memberi makan AI-nya dengan semua data pribadinya. AI-nya jadi "open book" soal kehidupan Felix. Saat ditanya "Siapa saya?", AI-nya membaca data itu (RAG) dan menjawab dengan akurat. Ini 1000x lebih baik daripada AI menghafal data pribadi lu.

👨‍🏫 Teks Rencana Mengajar: "Cara Menjadi 'Tuan' atas AI Anda Sendiri"

Ini adalah skrip yang bisa lu pakai untuk mengajar teman, komunitas, atau audiens lu. Ini dirancang untuk membuat ilmu tadi menancap lebih dalam di kepala lu.

(Mulai di sini)

"Oke guys, kumpul sini. Gua mau sharing sesuatu yang gua pelajari, dan ini mungkin bakal mengubah cara lu ngelihat AI selamanya.

Kita semua pakai AI kan? ChatGPT, Gemini, Copilot. Enak, praktis. Tapi ada satu hal yang bikin gua parno.

Pernah nggak lu ngetik sesuatu yang agak pribadi? Info kerjaan, curhat, atau bahkan password (jangan dilakuin!). Terus lu mikir, 'Ah, gua delete chat-nya aja biar aman.'

Gua kasih tahu rahasianya: Nge-delete chat itu BOHONG.

Perusahaan-perusahaan ini tetap nyimpan data lu. Mereka pakai itu buat training model mereka. Gua nemu sendiri, lu harus masuk ke menu setting yang tersembunyi jauh di dalam buat minta data lu dihapus.

Ini kayak lu ngobrol di restoran, terus lu sadar si pelayan mencatat semua obrolan lu di meja, bahkan setelah lu bayar dan pulang. Creepy, kan?

Nah, jadi solusinya apa?

Gampang: Masak sendiri di rumah.

Ini yang namanya 'Self-Hosting'. Daripada kita 'makan di restoran' (pakai server OpenAI), kita 'masak' AI-nya di komputer kita sendiri. Datanya 100% di hard drive kita. Nggak ada yang ngintip.

Terus lu pasti mikir, 'Ah, tapi kan butuh komputer dewa? Butuh 10 GPU kayak si PewDiePie?'

Itu MITOS.

Gua juga awalnya mikir gitu. Gua terobsesi sama 'parameter'—angka-angka miliar-miliar itu. 70B, 120B. Gua pikir makin besar angkanya, makin bagus.

Ternyata, itu salah. Model besar itu lambat dan boros. Rahasia sebenarnya ada di dua hal: Model Kecil + RAG.

  • Model Kecil (misal 2 Miliar parameter): Anggap ini 'otak' AI yang masih kosong. Dia nggak hafal apa-apa, tapi dia super cepat dalam merangkai kata.
  • RAG (Retrieval-Augmented Generation): Ini adalah 'buku contekan' yang kita kasih ke dia.

Ini analogi terbaiknya:

AI publik (ChatGPT) itu kayak mahasiswa ambis yang ujian tutup buku. Dia menghafal seluruh perpustakaan. Kalau ada soal, dia jawab dari hafalan. Kalau dia lupa? Dia ngarang (itu yang kita sebut 'halusinasi').

AI Self-Host kita itu kayak mahasiswa santai yang ujian OPEN BOOK. Otaknya (model kecil) nggak hafal apa-apa. Tapi kita kasih dia 'buku' (bisa PDF, dokumen Word, atau database kerjaan kita).

Pas kita tanya, 'Eh, rangkumin dong laporan keuangan Q3.'

AI-nya nggak ngarang. Dia buka buku (ini namanya Retrieval), cari datanya, terus dia rangkum pakai kata-katanya sendiri (ini Generation).

Hasilnya? 100% akurat, 100% privat, dan super cepat.

Lu bisa upload semua materi kuliah lu, terus lu tanya ke AI lu, 'Jelasin konsep X bab 5.' Dan dia bakal jelasin offline di komputer lu.

Jadi, apa yang bisa lu lakuin sekarang?

Nggak usah beli GPU dulu. Coba ini aja:

  1. Download software gratis namanya Ollama atau LM Studio.
  2. Download model yang kecil dulu, misalnya 'Phi-3 Mini' (ukurannya cuma 2GB-an).
  3. Coba ajak ngobrol. Rasain seberapa cepat dia jalan offline.
  4. Setelah itu, coba upload satu file PDF ke sana. Tanya soal isi PDF itu.

Selamat, lu baru aja self-host AI. Lu bukan cuma pengguna AI lagi. Lu adalah tuan dari AI lu sendiri. Ilmu ini yang membedakan antara 'konsumen' dan 'pencipta'.

Sekarang, coba deh. Nanti kita diskusi lagi."

(Selesai)

in AI
Gelembung AI akan Pecah Karena Ini