🔥 Minggu 1: Dasar-dasar Programming (Python)
🎯 Tujuan: Memahami logika dasar pemrograman dan Python.
📘 Teori:
-
Variabel, tipe data, operator
-
Kondisi, perulangan, fungsi
-
Struktur data: list, dict
-
Basic file I/O dan
with open
🧪 Praktik:
-
Program kalkulator
-
Mini proyek: Kamus Sederhana berbasis Python
🔗 Sumber:
⏳ Waktu: 12 jam
🧠Minggu 2: Numpy, Pandas, dan Logika Machine Learning
🎯 Tujuan: Mengenal logika dasar Machine Learning dan manipulasi data.
📘 Teori:
-
Konsep supervised vs unsupervised learning
-
Numpy (array, operasi vektor)
-
Pandas (DataFrame, manipulasi data)
🧪 Praktik:
-
Load data CSV, cleaning, analisa dasar
-
Predict harga rumah dengan Linear Regression (
sklearn
)
🔗 Sumber:
⏳ Waktu: 10 jam
🤖 Minggu 3: Neural Networks Dasar
🎯 Tujuan: Memahami cara kerja jaringan saraf (NN).
📘 Teori:
-
Perceptron, aktivasi (ReLU, sigmoid)
-
Backpropagation (tanpa rumus berat)
-
Overfitting dan generalisasi
🧪 Praktik:
-
Klasifikasi MNIST (digit) dengan Keras
-
Eksperimen hidden layer dan epoch
🔗 Sumber:
⏳ Waktu: 11 jam
🧩 Minggu 4: Convolutional Neural Network (CNN)
🎯 Tujuan: Mengenal image AI dengan CNN.
📘 Teori:
-
Konvolusi, pooling, padding
-
CNN layer vs dense layer
-
Dataset gambar (CIFAR10, FashionMNIST)
🧪 Praktik:
-
CNN untuk klasifikasi gambar fashion
-
Visualisasi hasil prediksi
🔗 Sumber:
⏳ Waktu: 12 jam
💬 Minggu 5: Natural Language Processing (NLP) & Tokenization
🎯 Tujuan: Memahami pemrosesan teks dengan NLP.
📘 Teori:
-
Tokenisasi, stopwords, stemming
-
Bag-of-Words dan TF-IDF
-
Embedding (Word2Vec, GloVe)
🧪 Praktik:
-
Analisis sentimen dengan TF-IDF + Logistic Regression
-
Embedding visualisasi dengan
sklearn.manifold.TSNE
🔗 Sumber:
⏳ Waktu: 10 jam
📡 Minggu 6: Transformer dan Attention
🎯 Tujuan: Menguasai dasar arsitektur Transformer.
📘 Teori:
-
Self-attention, positional encoding
-
Encoder vs decoder
-
Perbedaan GPT, BERT, T5
🧪 Praktik:
-
Implementasi GPT-2 via
transformers
library -
Uji coba chat sederhana dari model pre-trained
🔗 Sumber:
⏳ Waktu: 12 jam
🧠Minggu 7: Memahami Embedding dan Vector Database
🎯 Tujuan: Belajar konsep embeddings dan vector similarity.
📘 Teori:
-
Sentence embeddings
-
Cosine similarity
-
Vector stores (FAISS, Qdrant)
🧪 Praktik:
-
Convert dokumen jadi vektor
-
Cari dokumen terdekat dari query
🔗 Sumber:
⏳ Waktu: 10 jam
📚 Minggu 8: RAG (Retrieval-Augmented Generation)
🎯 Tujuan: Membangun chatbot yang bisa mengambil data dari dokumen.
📘 Teori:
-
Pipeline RAG: Embed → Retrieve → Prompt
-
Chunking, context injection
🧪 Praktik:
-
Buat RAG chatbot dari PDF atau
.md
file -
Integrasi ke CLI atau Telegram
🔗 Sumber:
⏳ Waktu: 12 jam
🧵 Minggu 9: Fine-Tuning dan LoRA
🎯 Tujuan: Melatih ulang LLM dengan gaya bicara sendiri.
📘 Teori:
-
Fine-tuning vs prompt tuning
-
LoRA: Konsep, manfaat, dan implementasi
🧪 Praktik:
-
Fine-tune LLaMA2/TinyLLM dengan dataset buatan sendiri
-
Deploy model lokal via HuggingFace +
text-generation-webui
🔗 Sumber:
⏳ Waktu: 12 jam
🧰 Minggu 10: Integrasi Model ke Aplikasi CLI/API
🎯 Tujuan: Membuat AI yang bisa diajak bicara dari CLI atau API.
📘 Teori:
-
FastAPI dasar
-
Sistem prompt dan memory
🧪 Praktik:
-
Buat CLI Chatbot dengan FastAPI + RAG
-
Fitur: history, context-aware, command handler
🔗 Sumber:
⏳ Waktu: 10 jam
🛡️ Minggu 11: Pengamanan dan Etika AI
🎯 Tujuan: Memahami bias, hallucination, dan pengamanan LLM.
📘 Teori:
-
Bias dan dataset ethics
-
Jailbreak prompt, prompt injection
-
Audit dan logging untuk AI system
🧪 Praktik:
-
Uji LLM terhadap prompt berbahaya
-
Tambahkan guardrails dasar
🔗 Sumber:
⏳ Waktu: 8 jam
🚀 Minggu 12: Mini Project “Clone Yourself AI”
🎯 Tujuan: Menerapkan semua yang dipelajari menjadi AI pribadi.
🧪 Praktik:
-
Desain sistem knowledge base pribadi
-
Bangun AI yang bisa menjawab pertanyaan berdasarkan file pribadi kamu
-
Integrasi CLI + Web + Telegram (opsional)
🔗 Sumber:
-
Reuse semua tools minggu sebelumnya
-
Buat dokumentasi sebagai portofolio
⏳ Waktu: 15 jam (1 minggu full sprint)
0 Komentar