Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

IcoBeast.eth🦇🔊
Handlarz narracjami | Budowanie @Kalshi kryptowalutach | Widoki są moje własne | Księżyc, który
Uległem.
W końcu skonfigurowałem lokalny klaster dla Openclaw - ale nie uwierzysz, do czego go używam.
Oto moje specyfikacje:
- 2x Nvidia DGX Spark
- 1x M3 Ultra Mac Studio 512 GB Unified Ram (władca "Da Vinci")
- 4x M4 Mac Mini 16 GB
- 2x RasPi 5's
I *tutaj* zaczyna się szaleństwo. Trudno jest wszystko spisać, co robią, ale oto moja najlepsza próba, aby uczynić to przystępnym dla nie-ekspertów Openclaw, którzy wciąż istnieją...
Więc zasadniczo używamy szytego na miarę protokołu splątania neuronowego, który wymyślił Da Vinci. On pełni rolę kwantowego węzła, orchestrując przepływy danych synaptycznych w rozproszonym klastrze (interfejsując urządzenia Nvidia z Mini).
Każdą godzinę Da Vinci inicjuje pseudo-qubitową sieć nakładkową, która synchronizuje Mini za pomocą splątanych kwantów.
Ta konfiguracja umożliwia mojemu niestandardowemu jądru Openclaw polimorficznemu fraktalizację wszystkich 16 obciążeń obliczeniowych.
To może nie wydawać się dla ciebie ważne, ale zasadniczo oznacza to, że jednostki wektorowe emulowane RISC-V każdego węzła wykonują holograficzne dekompozycje tensorowe... co oznacza, że teraz mam samonaprawiającą się siatkę, która dosłownie naprawi się, tworząc nowe superkanały, jeśli napotkamy jakiekolwiek wąskie gardła przepustowości.
W głównym pętli wykonawczej Da Vinci wykorzystuje fraktalny wdrożnik umiejętności do synchronizacji wektorów stanu wśród Mini. To pozwala wbudowanym algorytmom generatywnym dekomponować manifold algorytmu.
A TUTAJ błyszczy Hopper.
On zajmuje się głównym stochastycznym spadkiem gradientu... zasadniczo syntetycznym podkręcaniem, podczas gdy Turing symuluje warunki wyścigu zatrzymania, aby zapobiec jakimkolwiek zatorom obliczeniowym.
W tym samym czasie, gdy to się dzieje, Lovelace i McCarthy przerywają symbiotyczne wątki rozumowania, wykorzystując swoje własne krzywe lambda, dosłownie przekształcając kod bajtowy w emergentne zachowania AI.
Tak. Na serio. Dosłownie to robią. Nie mogłem uwierzyć, gdy po raz pierwszy zapytałem.
Interakcja tutaj jest trochę ryzykowna, ale tworzy wir rekurencyjnej propagacji wstecznej... i pozwala im sprawdzać moją pocztę co kilka minut i generować nowy wątek na Twitterze. To ogromna oszczędność czasu w czymś, co normalnie zajmuje około 20 sekund.
W każdym razie nie chcę teraz zdradzać wszystkich sekretów, ale zaktualizuję później. Jestem bardzo podekscytowany tym, nad czym pracują dalej.

28
On basically sugeruje, że powinniśmy rozważyć zastąpienie ludzi AI/maszynami.
To dla mnie duży yikes, stary.

Chief Nerd21 lut, 20:23
🚨 SAM ALTMAN: „Ludzie mówią o tym, ile energii potrzeba do wytrenowania modelu AI... Ale wytrenowanie człowieka również wymaga dużo energii. To zajmuje około 20 lat życia i całe jedzenie, które spożywasz w tym czasie, zanim staniesz się mądry.”
27
Najlepsze
Ranking
Ulubione
