🧬
Witalik Buterin uważa, że
sztuczna inteligencja na poziomie superinteligencji może pojawić się za 6 lat, dlatego zaproponował
koncepcję „przyspieszenia ochronnego” (d/acc).🔴 Aby uniknąć katastrof, proponuje
tworzenie zdecentralizowanych systemów AI, które pozostaną pod kontrolą człowieka.🔴 Innym podejściem jest
kontrola sprzętu sztucznej inteligencji. W sprzęcie dla AI można zainstalować chip kontrolny, który pozwoli systemom AI działać tylko po uzyskaniu trzech podpisów od międzynarodowych organizacji co tydzień.
🔴 Witalik uważa również, że aby uniknąć ryzyk związanych z AI,
należy pociągać użytkowników do odpowiedzialności.Jednak Buterin zauważył, że wszystkie zaproponowane przez niego strategie to jedynie
tymczasowe środki, które mogą spowolnić nadejście ery maszyn.