Afleveringen
-
Bu bölümde, teknolojik değişimin ortasında birey olarak nasıl güçlü kalabileceğimizi keşfediyoruz. Yapay zekâ iş dünyasını dönüştürürken, bizler hangi becerileri geliştirmeliyiz? Sürekli öğrenmenin, duygusal zekânın ve yaratıcılığın önemi neden hiç olmadığı kadar büyük anlamaya çalışıyoruz. Özellikle Harari'nin, WEF Raporlarının, Kai Fu Lee, Fei Fei Li, Andrew Ng gibi araştırmacıların görüşleriyle bakışımızı derinleştirmeye çalışıyoruz.
Kaynaklar:
Websitem: https://fbildirici.github.io
WEF Future of Jobs: https://www.weforum.org/publications/the-future-of-jobs-report-2025/
HBR AI Job Impact: https://hbr.org/2024/11/research-how-gen-ai-is-already-impacting-the-labor-market
Harari AI Revolution and Jobs: https://www.youtube.com/watch?v=KNqr4tGXpFA
Fei Fei Li: Staying Curious About AI
https://www.youtube.com/watch?v=WX7mTMXTuy4&pp=0gcJCdgAo7VqN5tD
Kai Fu Lee: AI Jobs Impact
https://fortune.com/2024/05/25/ai-job-displacement-forecast-50-percent-2027-kai-fu-lee-chatgpt-openai/
Harari - Nexus Views:
https://aboutdigitalhealth.com/2024/09/13/hararis-6-plagues-of-ai/
-
Bölüm 1’de, yapay zeka ve işgücü perspektifinin ötesine geçerek “Tekno-Feodalizm” adı verilen yeni güç dengelerini keşfedeceğiz: Dijital altyapı ve yapay zekâ devlerinin egemenliğinde oluşan çalışma biçimleri nasıl bir “Prekarya” yarattı anlamaya çalışacağız. 19. yüzyılın Ludditeleri örneğinde olduğu gibi, teknolojik dönüşümün yarattığı kaygılar ve direniş biçimlerini konuşacağız. Daron Acemoğlu’nun otomasyonun işgücü üzerindeki etkileri çalışması ışığında konuyu anlamaya çalışacağız.
Kaynaklar:
Websitem: https://fbildirici.github.io
Acemoğlu Yapay Zeka Ekonomisi: https://www.pandora.com.tr/kitap/redesigning-ai/794899
David Autor TED Konuşması:
https://www.ted.com/talks/david_autor_will_automation_take_away_all_our_jobs
Guy Standing Prekarya:
https://iletisim.com.tr/kitap/prekarya/10281?srsltid=AfmBOoqUPD2uMyInb4hSi5hiGnLjxNCh_8LloIv54orKuKqGCuUaQbbZ
Tekno Feodalizm Hakkında - Yanis Varoufakis:
https://gazeteoksijen.com/dunya/tekno-feodalizm-dunyayi-ele-geciriyor-34785
-
Zijn er afleveringen die ontbreken?
-
Otostopçunun Yapay Zeka Rehberi'nin bu bölümünde, DevOps’un yeteneklerini alıp makine öğrenmesi projelerinin canlı ortama kesintisiz ve güvenilir geçişini sağlayan MLOps projelerini, araçlarını, süreçlerini ele alıyoruz. Hem teorik altyapıyı hem de Netflix, Uber, American Express gibi öncü şirketlerin başarı hikâyelerini anlatıyoruz, MLOps’un veri ve model yaşam döngüsüne nasıl etki ettiğini incelemeye çalışıyoruz.
Kaynaklar:
Websitem: https://fbildirici.github.io
The Phoenix Project by Gene Kim, Kevin Behr & George Spafford: https://itrevolution.com/book/the-phoenix-project/
Continuous Delivery by Jez Humble & David Farley: https://martinfowler.com/books/continuousDelivery.html
Hidden Technical Debt in Machine Learning Systems (Sculley et al., 2015
https://proceedings.neurips.cc/paper_files/paper/2015/file/86df7dcfd896fcaf2674f757a2463eba-Paper.pdf
MLOPS Uygulamaları Hakkında: https://www.datacamp.com/blog/mlops-best-practices-and-how-to-apply-them
MLOps Araç Seti Hakkında:
https://github.com/kelvins/awesome-mlops
Google Cloud Blog: https://cloud.google.com/architecture/mlops-continuous-delivery-and-automation-pipelines-in-machine-learning
Uber'in Use Casei: https://www.uber.com/en-TR/blog/continuous-integration-deployment-ml/
ML Flow Araç Seti ve Yetenekleri:
https://mlflow.org/docs/latest/index.html
-
Otostopçunun Yapay Zeka Rehberi'nin bu bölümünde, yapay zekanın “halüsinasyon” adı verilen, hiç var olmayan bilgileri gerçekmiş gibi sunma kusurunu ele aldığımız 2. bölüme geçiyoruz ve yarattığı riskleri ve bu rüyamsı yanıltmaları önlemek için geliştirilen Retrieval-Augmented Generation (RAG), Zincirleme Düşünce (CoT), Self-Consistency, İnsan Geri Bildirimiyle Öğrenme (RLHF), çok modlu doğrulama gibi yöntemleri uygulama örnekleri eşliğinde ele alıyoruz. Dünyaca ünlü araştırmacıların ve teknoloji liderlerinin görüşleriyle de güvenilir bir yapay zekâya nasıl ulaşabileceğimizi anlamaya çalışıyoruz. Bu yolculuğa eşlik etmek için:
Kaynaklar:
Websitem: fbildirici.github.ioStanford State of AI Index Rapor: https://hai.stanford.edu/ai-index/2023-ai-index-reportChain-of-Thought'u adeta karşılaştırarak doğrulayan Self-Consistency mekanizması: https://arxiv.org/abs/2203.11171Human Feedback ile Pekiştirmeli Öğrenme Kullanımı Hakkında: https://arxiv.org/abs/2203.02155Eliezer Yudkowsy'nin Blogu: https://www.lesswrong.com/posts/wAczufCpMdaamF9fy/my-objections-to-we-re-all-gonna-die-with-eliezer-yudkowskyChain of Thought'u Ortaya Çıkaran Makale, Geçmiş Bölümlerde Anlatmıştık: https://arxiv.org/abs/2201.11903Altman'ın Hallucination Hakkındaki Görüşleri: https://thereader.mitpress.mit.edu/hallucinating-ais-sound-creative-but-lets-not-celebrate-being-wrong/ -
Bu bölümde, GPT’nin nasıl devasa metin veri setleri üzerinde önceden eğitildiğini, nasıl Transformer mimarisi üzerine kurulduğunu ve metinleri nasıl bir kelimenin sonrasında hangisinin geleceğini tahmin ederek oluşturduğunu keşfediyoruz. Bunu yaparken, eski dostumuz Turing'e selam veriyor, Doğal Dil İşleme'nin (NLP) tarihine göz atıyor, ELIZA'ya hal hatır soruyoruz.
Beatles'ın "All you need is love" haykırışını kulaklarımızda çınlatırken, biz de dikkat mekanizmalarına, tokenizasyona, embedding yöntemlerine göz atıyoruz. RNN’lerden LSTM’lere algoritmaların nasıl evrildiğine kısaca bakıyoruz. GPT’nin arkaplanını, hem matematiksel hem tarihsel hem de kültürel bir yolculukta adım adım çözmeye çalışıyoruz.
Websitem: https://fbildirici.github.io
Kaynaklar
Attention Is All You Need (Vaswani et al., 2017)
Transformer mimarisinin doğuşunu anlatan temel makale.
https://arxiv.org/abs/1706.03762The Bitter Lesson (Rich Sutton, 2019)
Yapay zekâda deneyimlerin ve insan tasarımından ziyade hesaplama gücünün önemine dair etkili bir bakış.
http://www.incompleteideas.net/IncIdeas/BitterLesson.htmlStochastic Parrots (Bender et al., 2021)
Büyük dil modellerinin önyargılar, sürdürülebilirlik ve etik risklerine dair eleştirel bir çalışma. Geçen bölümde de bahsetmiştik, ama bu konu hâlâ gündemimizde.
https://dl.acm.org/doi/10.1145/3442188.3445922The Illustrated GPT-2 (Jay Alammar)
GPT mimarisini görsel anlatımlarla sadeleştiren detaylı ve anlaşılır bir blog yazısı.
https://jalammar.github.io/illustrated-gpt2/ -
Otostopçunun Yapay Zeka Rehberi'nin bu iki bölümlük serisinin ilk bölümünde, yapay zekâların ve özellikle büyük dil modellerinin en ilginç ve tartışmalı yönlerinden biri olan halüsinasyonları ele alıyoruz. Yapay zekâ neden bazen gerçek dışı şeyler uydurur? Teknik altyapısı, tarihçesi, hukuki ve etik sonuçlarıyla birlikte halüsinasyonları kapsamlı biçimde bir incelemenin yolculuğun gelin ilk bölümünden başlayalım:
Kaynaklar:
Fatih Bildirici PhD(c): https://fbildirici.github.ioOn the Dangers of Stochastic Parrots: Can Language Models Be Too Big?: https://www.turing.ac.uk/events/dangers-stochastic-parrotshttps://dl.acm.org/doi/10.1145/3442188.3445922
Halüsinasyonlar İşimize Yarayabilir mi?How Hallucinatory A.I. Helps Science Dream Up Big Breakthroughs - The New York TimesHallucination Ölçüm Metrikleri Üzerine Akademik Çalışmalar ör: Toolformer [2302.04761] Toolformer: Language Models Can Teach Themselves to Use Tools
When AI Gets It Wrong: Addressing AI Hallucinations and Bias - MIT Sloan Teaching & Learning Technologies
Sam Altman says hallucinations are part of the “magic” of generative AI | IT ProÇözüm Denemeleri Üzerine: Legal_RAG_Hallucinations.pdfHow Hallucinatory A.I. Helps Science Dream Up Big:How Hallucinatory A.I. Helps Science Dream Up Big Breakthroughs - The New York Times -
Otostopçunun Yapay Zeka Rehberi'nin bu bölümünde hep birlikte Model Context Protocol (MCP)'yi keşfe çıkıyoruz. Yapay zekâ sistemlerinin dış dünyayla nasıl bağlantı kurduğunu, veriye nasıl eriştiğini ve bizim adımıza nasıl eyleme geçebildiğini detaylıca ele alıyoruz. RAG gibi yaklaşımlardan nasıl farklılaştığını anlamaya çalışıyor, gerçek dünyadaki örnekleriyle neler mümkün olduğunu birlikte görüyoruz.
Kaynaklar:
Websitem: fbildirici.github.ioModel Bağlam Protokolü (Cursor: https://docs.cursor.com/context/model-context-protocolAnthropic Dokümantasyonu: https://www.anthropic.com/news/model-context-protocolDokümantasyon & Online Book: https://modelcontextprotocol.io/introductionGithub Reposu: https://github.com/modelcontextprotocolIBM Technology Kanalı Giriş Seviyesi MCP Videosu: https://www.youtube.com/watch?v=eur8dUO9mvEDatacamp Uygulamalı Crash Course: https://www.datacamp.com/tutorial/mcp-model-context-protocol -
Otostopçunun Yapay Zeka Rehberi'nin bu bölümünde tavsiye sistemlerinin kalbinde yer alan makine öğrenmesini düşünerek. Öneri sistemleri olarak ele alabileceğimiz sistemleri konuşuyoruz, kullanıcıların geçmiş davranışlarını ve tercihlerine dair verileri analiz ederek, kişiye özel içerik veya ürün önerileri sunma olarak düşüneceğimiz bu sistemleri ve temellerini anlamaya çalışıyoruz.
Kaynaklar:
Websitem: fbildirici.github.ioRecommendation Systems: https://developers.google.com/machine-learning/recommendation/overview/typesThe Coded Bias: https://www.netflix.com/title/81328723İTÜ Öneri Sistemleri: https://yapayzeka.itu.edu.tr/arastirma/oneri-sistemleriMiuul: https://miuul.com/blog/veri-bilimi-ile-tavsiye-sistemleriMatematiksel İmha Silahları: https://www.canyayinlari.com/matematiksel-imha-silahlari-9786058043398Practical Recommendation Systems: https://www.manning.com/books/practical-recommender-systemsRecommendation Systems: Algorithms, Challenges, Metrics, and Business Opportunities: https://www.mdpi.com/2076-3417/10/21/7748 -
Bu bölümde, akıl yürüten yapay zekaların gelişimini inceliyoruz. Özellikle, reasoning modellerin derinlemesine düşünme yeteneğini nasıl kazandığını; ChatGPT’nin, O1 ve O3 gibi modellerin akıl yürütme süreçlerini nasıl geliştirdiğini; Deepseek r1 ve benzeri modellerin bu yeteneği kazanmasını sağlayan çalışmanın sunduğu perspektifleri ve chain-of-thought yaklaşımının etkilerini ele alıyoruz.
Kaynaklar:
Kişisel Web Sitesi:
https://fbildirici.github.io
Chain-of-Thought Prompting Elicits Reasoning in Large Language Models: https://arxiv.org/pdf/2201.11903DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning: https://arxiv.org/pdf/2501.12948Chain of Thought Prompting Hakkında: https://www.promptingguide.ai/techniques/cotYapay Zeka Nasıl Düşünür: https://www.youtube.com/watch?v=PvDaPeQjxOEModern Yapay Zeka Sistemlerinde Akıl Yürütme Nedir?https://www.youtube.com/watch?v=XFMk0snybAc
-
Otostopçunun Yapay Zeka Rehberi'nin bu bölümünde beraber biraz keyifli bir sohbete giriyoruz. Carl Sagan'ın "Bilimkurgu, sadece tahmin yapmaz; geleceğin nasıl olabileceğine dair hayaller kurarak mucitlere yol gösterir." sözünden yola çıkıyor, yapay zekanın bilimkurguda nasıl yer aldığını, nasıl beslediğini, yapay zekanın bilimkurgu eserlerinde nasıl ele alındığını sorular sorarak inceliyoruz bu bölümde.
Kaynaklar:
Kişisel Websitem: fbildirici.github.ioWhat can science fiction tell us about the future of artificial intelligence policy?: https://link.springer.com/article/10.1007/s00146-021-01273-2How science-fiction tropes shape military AI: https://thebulletin.org/2023/03/how-science-fiction-tropes-shape-military-ai/Artificial intelligence in fiction: between narratives and metaphors: https://link.springer.com/article/10.1007/s00146-021-01299-6Butleryan Cihadı: https://www.bilimkurgukulubu.com/t/butleryan-cihadi/Yapay Zekanın Bilim Kurgudaki Rolü: https://www.youtube.com/watch?v=21P0nqPNz1w -
Otostopçu'nun Yapay Zeka Rehberi'nde bu bölümde Makine Öğrenmesi Konusunun detayına giriyoruz.
makine öğrenmesinin temel türlerini ve algoritmalarını derinlemesine inceliyoruz. Denetimli öğrenmenin etiketli verilerle nasıl yol gösterdiğini, denetimsiz öğrenmenin verideki gizli örüntüleri ortaya çıkarmasını ve pekiştirmeli öğrenmenin deneme-yanılma süreçleriyle karar alma mekanizmalarını, kapsamlı örneklerle açıklıyor, bu yolculukta en güvendiğimiz kaynakları da yanımıza alıyoruz. Makine öğrenme süreçlerinin nasıl çalıştığını, tarihsel süreci de detaylıca anlamaya çalışıyoruz.
Kişisel Sayfam: https://fbildirici.github.ioBilinçli Makinelere Giden Yol: https://metiskitap.com/catalog/book/37104Bishop - Machine Learning: https://www.microsoft.com/en-us/research/wp-content/uploads/2006/01/Bishop-Pattern-Recognition-and-Machine-Learning-2006.pdfChip Huyen - Designing Machine Learning Systems: https://github.com/chiphuyen/machine-learning-systems-designHow Neurons that Fire Together Wire Together: https://neurosciencenews.com/wire-fire-neurons-19835/Bilgi Kuramı: https://sarkac.org/2021/10/bilgi-kurami-nedir/https://x.com/FatihBildiricii
https://bsky.app/profile/fatihbildirici.bsky.social
-
Agentic AI yani yapay zeka ajanları, artık sadece verilen komutlara yanıt veren bir araç değil; çevresini algılayıp, kendi hedeflerini belirleyerek özerk kararlar alabilen çerçeveler olarak özetlenebilecek aslında hibrit bir çerçeve. Bu podcast’te, bu devrim niteliğindeki teknolojinin teknik temellerini, önemli noktalarını, katmanlarını, buraya bizi getiren yolları inceleyeceğiz, kısaca sektörlerde nasıl uygulandığını ve etik, hukuki sorumluluklarını, ünlü düşünürlerin ve endüstri uzmanlarının görüşleriyle birlikte keşfedeceğiz.
Bunu da mümkün olduğunca derinlikli ele alıyoruz. Aşağıda ek linkleri bulabilirsiniz:
https://fbildirici.github.io - Kişisel AdresimSam Altman'ın görüşleri: https://www.youtube.com/watch?v=rxWi9-To8QsAndrew Ng'nin görüşleri: https://www.youtube.com/watch?v=KrRD7r7y7NYBill Gates'in Agentic AI hakkında notları: https://www.gatesnotes.com/ai-agentsIBM'in eleştirel bakışları da içeren notları: https://www.ibm.com/think/insights/ai-agents-2025-expectations-vs-realityLangchain'in State of Agents Raporu: https://www.langchain.com/stateofaiagentsOpenAI Agents: https://openai.com/index/new-tools-for-building-agents/AI Agents in Action kitabı - Manning: https://www.oreilly.com/library/view/ai-agents-in/9781633436343/Notlar, yorumlar için: https://www.linkedin.com/in/fatih-bildirici/
-
Yapay zekâ, insan seviyesinde zekâya ulaşmanın eşiğinde mi, yoksa bu sadece tekrar eden bir hayal mi? Alan Turing’den Geoffrey Hinton’a, Herbert Simon’dan Elon Musk’a kadar tarih boyunca birçok ünlü isim, makinelerin kısa sürede insanı aşacağını öngördü—ancak çoğu kez yanıldılar. Bu bölümde, 1950’lerden günümüze kadar AI hakkında yapılan aşırı iyimser tahminleri, bunların neden gerçekleşmediğini ve AGI’nin (Genel Yapay Zekâ) hâlâ neden ulaşılmaz bir hedef olduğunu ele alıyoruz. Bilimkurgu, medya etkileri, yatırımcı hype'ı ve teknik sınırlamaların bu yanlış öngörülerde nasıl rol oynadığını tartışıyor, yapay zekânın geleceğine dair gerçekçi davranmaya gayret ediyoruz.
Otostopçu'nun Yapay Zeka Rehberi ilk bölümüyle sizlerle.
https://fbildirici.github.io