Tag: ParallelComputing
-
Tematy, o których teraz się mówi No193
Ontologia CUDA głębokie spojrzenie na ekosystem NVIDIA • Jak różnią się łańcuchy Markowa od małych modeli językowych? • Szyfrowanie danych w spoczynku w DuckDB • Studenci protestują przeciw kursowi prowadzonemu przez AI • Freer Monads i bardziej rozszerzalne efekty 2015
-
Tematy, o których teraz się mówi No186
Karta modelu Gemini 3 Pro przełomowy model multimodalny DeepMind • Kod i narzędzia open source do stworzenia antologii science fiction • Testy Gemini 3 Pro transkrypcja audio i nowy benchmark Pelican • Hachi samodzielny silnik wyszukiwania obrazów • simd-csv ultraszybkie przetwarzanie danych w Rust z użyciem SIMD
-
Tematy, o których teraz się mówi No183
Miesiąc programowania opartego na rozmowie • Teoria sygnałów cyfrowych • Gemini 3 nowa generacja sztucznej inteligencji Google • Szef Google: boom inwestycyjny w AI ma elementy irracjonalności • W stronę międzyplanetarnego ruchu QUIC
-
Tematy, o których teraz się mówi No180
Co gdyby wszystko było Async, ale nic nie wymagało Await? • Moje etapy nauki bycia społecznie normalnym człowiekiem • Core Devices wciąż przywłaszcza naszą pracę
-
Tematy, o których teraz się mówi No158
GPT-5.1: jeszcze inteligentniejszy i bardziej rozmowny ChatGPT • Pakistańska gazeta przypadkowo wydrukowała prompt AI razem z artykułem • Project Euler matematyka spotyka programowanie • Jeden sprytny trik z hashowaniem • Jeden problem, siedem bibliotek na GPU
-
Tematy, o których teraz się mówi No135
Nie Umieraj na Chorobę Serca: Jak Technologia Pomaga Chronić Życie • Testy Sztucznej Inteligencji pod Lupą Benchmarki bez Naukowej Solidności • 1 Bilion USD Uciekł z Rynku Technologii, bo Inwestorzy Zwątpili w AI • Cerebras Code Obsługuje Teraz GLM 4.6 1000 Tokenów na Sekundę • Małe Modele Językowe Przyszłość Agentowej Sztucznej Inteligencji
