🧬 Witalik Buterin uważa, że sztuczna inteligencja na poziomie superinteligencji może pojawić się za 6 lat, dlatego zaproponował koncepcję „przyspieszenia ochronnego” (d/acc).
🔴 Aby uniknąć katastrof, proponuje tworzenie zdecentralizowanych systemów AI, które pozostaną pod kontrolą człowieka.
🔴 Innym podejściem jest kontrola sprzętu sztucznej inteligencji. W sprzęcie dla AI można zainstalować chip kontrolny, który pozwoli systemom AI działać tylko po uzyskaniu trzech podpisów od międzynarodowych organizacji co tydzień.
🔴 Witalik uważa również, że aby uniknąć ryzyk związanych z AI, należy pociągać użytkowników do odpowiedzialności.
Jednak Buterin zauważył, że wszystkie zaproponowane przez niego strategie to jedynie tymczasowe środki, które mogą spowolnić nadejście ery maszyn.
🔴 Aby uniknąć katastrof, proponuje tworzenie zdecentralizowanych systemów AI, które pozostaną pod kontrolą człowieka.
🔴 Innym podejściem jest kontrola sprzętu sztucznej inteligencji. W sprzęcie dla AI można zainstalować chip kontrolny, który pozwoli systemom AI działać tylko po uzyskaniu trzech podpisów od międzynarodowych organizacji co tydzień.
🔴 Witalik uważa również, że aby uniknąć ryzyk związanych z AI, należy pociągać użytkowników do odpowiedzialności.
Jednak Buterin zauważył, że wszystkie zaproponowane przez niego strategie to jedynie tymczasowe środki, które mogą spowolnić nadejście ery maszyn.