☁️ Alibaba Cloud ogranicza użycie GPU Nvidii o 82% dzięki nowemu systemowi Aegaeon
To znaczący krok naprzód w optymalizacji infrastruktury AI — szczególnie istotny w kontekście globalnych niedoborów GPU i ograniczeń eksportowych. Jeśli rozwiązanie okaże się skalowalne, może radykalnie zmienić ekonomię wnioskowania w dużych chmurach obliczeniowych.
Alibaba Cloud zaprezentowało system Aegaeon, który zmniejsza zapotrzebowanie na GPU Nvidii o 82% podczas obsługi dużych modeli językowych. Technologia wirtualizuje dostęp do GPU na poziomie tokenów, zwiększając wydajność nawet dziewięciokrotnie i pozwalając wielu modelom współdzielić zasoby sprzętowe. W testach produkcyjnych obsłużyła modele o wielkości do 72 miliardów parametrów, redukując liczbę GPU z 1192 do 213.
🔗Czytaj Więcej🔗
🧠 BERT jako jednokrokowy model dyfuzji tekstu
To ciekawy most między paradygmatami modelowania języka — przedstawienie BERT-a jako modelu dyfuzyjnego jednego kroku zaciera granicę między rozumieniem a generowaniem, wskazując kierunek ku bardziej zintegrowanym architekturom przyszłości.
Autor pokazuje, że modele typu BERT, takie jak RoBERTa, mogą generować tekst po przekształceniu w dyskretne modele dyfuzyjne. Eksperyment z różnym stopniem maskowania dowodzi, że modelowanie języka z maskowaniem może ewoluować w proces generatywnej dyfuzji, łącząc podejścia maskowane i autoregresywne w jednym frameworku.
🔗Czytaj Więcej🔗
⚠️ Sztuczna inteligencja i nowe oblicze „poverty porn” w kampaniach pomocowych
Artykuł porusza ważny problem etyczny w komunikacji humanitarnej — jak wygoda i oszczędność AI mogą nieświadomie odtwarzać dawne, wyzyskujące schematy wizualne.
Śledztwo „The Guardian” ujawnia, że obrazy generowane przez AI, przedstawiające skrajną biedę i traumę, coraz częściej trafiają na serwisy ze zdjęciami stockowymi i są wykorzystywane przez organizacje humanitarne. Eksperci ostrzegają, że takie wizualizacje utrwalają szkodliwe stereotypy i stanowią nową formę „poverty porn”. Mimo prób zwiększania różnorodności przez platformy, popyt na sensacyjne obrazy nie maleje. Część NGO, borykając się z cięciami budżetowymi, sięga po generatywne media, unikając kwestii zgody i kosztów.
🔗Czytaj Więcej🔗
💸 Ile Anthropic i Cursor wydają na usługi AWS
Rzadki wgląd w ekonomię infrastruktury AI — artykuł obnaża, jak krucha i potencjalnie nieopłacalna jest obecna architektura biznesowa LLM, uzależniona od subsydiów chmurowych i agresywnych strategii cenowych.
Śledztwo Eda Zitrona ujawnia, że Anthropic wydał 2,66 mld dolarów na AWS do września 2025 roku — więcej niż wynosiły jego przychody. Koszty obliczeniowe Cursor podwoiły się po podwyżkach cen wprowadzonych przez Anthropic. Raport wskazuje na niebezpieczną trajektorię wydatków i zarzuca firmie agresywną politykę cenową wobec klientów. Autor ostrzega, że może to zwiastować „kryzys subprime AI”, w którym dostawcy modeli bazowych podkopują własny ekosystem.
🔗Czytaj Więcej🔗
💎 Trochę Smalltalka o pętlach w Ruby
Świetny tekst dla programistów Ruby — pokazuje elegancję i filozofię języka zakorzenioną w Smalltalku oraz przypomina, że w Ruby iteracja to dialog między obiektami, a nie zwykła kontrola przepływu.
Esej analizuje, jak model iteracji w Ruby różni się od języków takich jak Python, kładąc nacisk na przesyłanie wiadomości zamiast klasycznej składni sterującej. Autor łączy projekt Ruby z filozofią Smalltalka „protokół ponad składnię”, pokazując, że konstrukcje takie jak `.times` czy `.each` wysyłają wiadomości obiektom zamiast wykonywać tradycyjne pętle.
🔗Czytaj Więcej🔗
