Tag: DeepLearning
-
Tematy, o których teraz się mówi No161
Nano Banana inżynieria promptów dla precyzyjnego generowania obrazów przez AI • SlopStop społecznościowe wykrywanie AI-slop w wyszukiwarce Kagi • Blender Lab przestrzeń innowacji i eksperymentów w świecie Blendera • SIMA 2 agent AI, który gra, rozumuje i uczy się w wirtualnych światach 3D • Parsowanie liczb całkowitych w C bezpieczniej i precyzyjniej w cURL
-
Tematy, o których teraz się mówi No158
GPT-5.1: jeszcze inteligentniejszy i bardziej rozmowny ChatGPT • Pakistańska gazeta przypadkowo wydrukowała prompt AI razem z artykułem • Project Euler matematyka spotyka programowanie • Jeden sprytny trik z hashowaniem • Jeden problem, siedem bibliotek na GPU
-
Tematy, o których teraz się mówi No153
Yann LeCun opuszcza Meta, by stworzyć start-up AI oparty na modelach świata • Indeksy i rozmiary w C powinny być typu signed • Hipotetyczna wyszukiwarka oparta na S3 z Tantivy i buforem NVMe • Empiryczna ocena testowania opartego na własnościach w Pythonie
-
Tematy, o których teraz się mówi No146
Odświeżanie infrastruktury Apache XML • Nieoczekiwane rzeczy, które są ludźmi • Toy Story, które pamiętasz • Inteligencja przestrzenna kolejny krok dla AI • Skondensowany przewodnik po haszowaniu w Rust
-
Tematy, o których teraz się mówi No144
Beets menedżer muzyki dla geeków i programistów • Itiner-e cyfrowy atlas dróg Imperium Rzymskiego • Modele językowe jako dopalacz efektu Dunninga-Krugera • Język naturalny, analiza semantyczna i fikcja interaktywna 2006 • Belgijscy naukowcy sprzeciwiają się użyciu AI w środowisku akademickim
-
Tematy, o których teraz się mówi No143
Polityka wobec treści generowanych przez LLM w open source? • Zasady modeli dyfuzyjnych • Grok 4 Fast z oknem kontekstu 2 miliony tokenów
-
Tematy, o których teraz się mówi No135
Nie Umieraj na Chorobę Serca: Jak Technologia Pomaga Chronić Życie • Testy Sztucznej Inteligencji pod Lupą Benchmarki bez Naukowej Solidności • 1 Bilion USD Uciekł z Rynku Technologii, bo Inwestorzy Zwątpili w AI • Cerebras Code Obsługuje Teraz GLM 4.6 1000 Tokenów na Sekundę • Małe Modele Językowe Przyszłość Agentowej Sztucznej Inteligencji
-
Tematy, o których teraz się mówi No132
Dlaczego kocham OCaml 2023 • Renderowanie spektralne, część 1: Widma • Gmail zbyt natarczywe dzięki AI • SelfHostLLM kalkulator pamięci GPU dla inferencji LLM
-
Tematy, o których teraz się mówi No130
Pożegnanie z Meta i PyTorch: koniec pewnej epoki w AI • Problem 70 w AI: granice automatyzacji kodowania • qq.fish lokalny asystent LLM dla poleceń w powłoce Fish • Wyniki testów sześciu modeli AI na zaawansowanych exploitach bezpieczeństwa
