USD
41.72 UAH ▲0.33%
EUR
49.18 UAH ▲1.09%
GBP
56.99 UAH ▼0.02%
PLN
11.57 UAH ▲1.03%
CZK
2 UAH ▲1.6%
Zasady Google nie zawierają już punktów, które wykluczają użycie sztucznej intel...

Google odmówił obietnicy nie użycia sztucznej inteligencji do tworzenia broni: co jest znane

Zasady Google nie zawierają już punktów, które wykluczają użycie sztucznej inteligencji do tworzenia broni, śledzenia i innych technologii w celu krzywdy ludziom. We wtorek 4 lutego Google zaktualizował swoje etyczne zasady sztucznej inteligencji (AI), odmawiając nie użycia tej technologii jako broni lub nadzoru. O tym pisze The Washington Post. Wcześniej zasady Google dotyczące AI zawierały sekcję wymienioną przez branże, w których firma nie opracowała ani nie wdrażała AI.

Zgodnie z kopią znajdującą się na jedynych archiwach maszyny Wayback, ta sekcja składała się z czterech punktów: na 5 lutego w tej sekcji brakuje na stronie. Przedstawiciel Google odmówił odpowiedzi dziennikarzy na temat polityki firmy dotyczące broni i monitorowania, ale odniósł się do raportu opublikowanego we wtorek przez szefa Demsabis, szef Demisabis, oraz jej starszy wiceprezes ds. Technologii i społeczeństwa, James Manica .

Raport stwierdza, że ​​Google aktualizuje swoje zasady sztucznej inteligencji, jako globalną konkurencję o przywództwo AI na świecie w warunkach coraz trudniejszego krajobrazu geopolitycznego, co spowodowało potrzebę firm w krajach demokratycznych i służy klientom w rządzie , kontynuuje na świecie na świecie i obsługuje klientów na świecie na świecie.

„Uważamy, że demokracja powinna prowadzić w rozwoju sztucznej inteligencji, kierowaną tak podstawowymi wartościami, jak wolność, równość i szacunek dla praw człowieka. I uważamy, że firmy, rządy i organizacje, które dzielą te wartości, powinny współpracować w celu stworzenia CI, który chroni ludzi, promuje globalny wzrost i utrzymuje bezpieczeństwo narodowe ” - powiedział Gassabis i Manic.

Zaktualizowana wersja zasad Google w sztucznej inteligencji stwierdza, że ​​firma będzie wykorzystywać nadzór człowieka i przyjmuje informacje zwrotne, aby upewnić się, że jej technologia jest wykorzystywana zgodnie z „ogólnie akceptowanymi zasadami prawa międzynarodowego i praw człowieka”. Ponadto firma obiecuje przetestować swoją technologię „złagodzić niezamierzone lub szkodliwe konsekwencje”.

Przypomnij sobie, że inżynier znany w sieci pod pseudonimem STS 3D stworzył pręt na bazie pręta, który działa na podstawie chatbota ze sztuczną inteligencją Chatgpt z Openai. Według przedstawiciela Openai deweloper poinformował, że naruszył politykę firmy i wezwał „do zatrzymania tej działalności”.

<p> Lekarz zapewnia pomoc podczas ostrzału. Batalion Stugna </p>...
Ponad miesiąc temu
Ukraiński lekarz zapewnia wojsko podczas ostrzeżenia
By Simon Wilson