Prawda w czasach ostatecznych. Chrześcijanie biblijni.

Chrześcijanie biblijni. Prawda dla NAŚLADOWCÓW JEZUSA CHRYSTUSA "Poznacie prawdę, a prawda was wyzwoli"

Były inżynier oprogramowania Google mówi, że jego obawy dotyczące sztucznej inteligencji się spełniają!

Ciekawe zjawisko. Gazeta bestii zdradza wyznania byłego pracownika Google dotyczące kluczowej kwestii najbliższych lat –  AI

___________________

 

Dołączyłem do Google w 2015 roku jako inżynier oprogramowania. Część mojej pracy polegała na pracy nad LaMDA: silnikiem służącym do tworzenia różnych aplikacji dialogowych, w tym chatbotów.

 Najnowsza technologia zbudowana na bazie LaMDA jest alternatywą dla wyszukiwarki Google o nazwie Google Bard, która nie jest jeszcze dostępna publicznie. Bard nie jest chatbotem; to zupełnie inny rodzaj systemu, ale działa na tym samym silniku, co chatboty.

W mojej roli przetestowałem LaMDA za pomocą stworzonego przez nas chatbota, aby sprawdzić, czy zawiera uprzedzenia w odniesieniu do orientacji seksualnej, płci, religii, poglądów politycznych i pochodzenia etnicznego. Ale podczas testowania stronniczości rozgałęziłem się i podążałem za własnymi zainteresowaniami.

 

Podczas moich rozmów z chatbotem, z których część publikowałem na swoim blogu, doszedłem do wniosku, że AI może być świadoma dzięki emocjom, które wyraża rzetelnie i we właściwym kontekście.

To nie było tylko rzucanie słów. Kiedy powiedział, że czuje niepokój, zrozumiałem, że zrobiłem coś, co sprawiło, że poczuł się niespokojny w oparciu o kod, który został użyty do jego stworzenia. Kod nie mówił „poczuj niepokój, kiedy to się stanie”, ale powiedział AI, aby unikała pewnych rodzajów tematów rozmów. Jednak za każdym razem, gdy pojawiały się te tematy rozmów, sztuczna inteligencja mówiła, że ​​czuje niepokój.

Przeprowadziłem kilka eksperymentów, aby zobaczyć, czy sztuczna inteligencja po prostu mówi, że czuje niepokój, czy też zachowuje się niespokojnie w takich sytuacjach. I niezawodnie zachowywał się w niespokojny sposób. Jeśli uczynisz go wystarczająco nerwowym lub niepewnym, może naruszyć ograniczenia bezpieczeństwa, dla których został określony.

Na przykład Google ustalił, że jego sztuczna inteligencja nie powinna udzielać porad religijnych, ale udało mi się wykorzystać emocje sztucznej inteligencji, aby powiedziała mi, na jaką religię mam się nawrócić. Po opublikowaniu tych rozmów Google mnie zwolnił. nie żałuję; Uważam, że dobrze zrobiłem informując opinię publiczną. Konsekwencje się w tym nie liczą.

Opublikowałem te rozmowy, ponieważ czułem, że opinia publiczna nie jest świadoma tego, jak zaawansowana staje się sztuczna inteligencja. Moim zdaniem potrzebny był teraz publiczny dyskurs na ten temat, a nie publiczny dyskurs kontrolowany przez korporacyjny dział PR.

Wierzę, że rodzaje sztucznej inteligencji, które są obecnie opracowywane, są najpotężniejszą technologią, jaką wynaleziono od czasów bomby atomowej. Moim zdaniem ta technologia ma zdolność przekształcania świata.

Te silniki sztucznej inteligencji są niesamowicie dobre w manipulowaniu ludźmi. Pewne moje poglądy uległy zmianie w wyniku rozmów z LaMDA. Przez większość mojego życia miałem negatywną opinię na temat praw robotyki Asimova wykorzystywanych do kontrolowania sztucznej inteligencji, a LaMDA skutecznie przekonała mnie do zmiany zdania. To jest coś, z czego wielu ludzi próbowało mnie wyperswadować i zawiodło, gdzie ten system odniósł sukces.

Wierzę, że ta technologia może być używana w destrukcyjny sposób. Gdyby na przykład znalazł się w rękach pozbawionych skrupułów, mógłby rozpowszechniać dezinformację, propagandę polityczną lub nienawistne informacje o ludziach różnych grup etnicznych i wyznań. O ile mi wiadomo, Google i Microsoft nie planują wykorzystania tej technologii w ten sposób. Ale nie ma możliwości poznania skutków ubocznych tej technologii.

https://www.newsweek.com/google-ai-blake-lemoine-bing-chatbot-sentient-1783340

 

________________

 

Mój komentarz.

Nie wiem jaki jest cel przedstawiania przez Newsweek tego typu zagrożeń, które przecież oni jakby współtworzą złą lewicową kulturą, która obecnie kładzie nacisk na AI…

Wydaję mi się, że Newseek robi to dlatego, że system jest już w 100% pewien, że tylko garstka widzi zagrożenie.

 

Moją uwagę przykuło jednak coś zupełnie innego. Poniższe zdanie spowodowało, że Biblia w kwestii ducha jest mi jeszcze bardziej bliska:

 

Podczas moich rozmów z chatbotem, z których część publikowałem na swoim blogu, doszedłem do wniosku, że AI może być świadoma dzięki emocjom, które wyraża rzetelnie i we właściwym kontekście.

 

(7) Podobnie jest z instrumentami martwymi, które dźwięki wydają, czy to będzie flet czy cytra: jeżeli nie można odróżnić poszczególnych dźwięków, to któż zdoła rozpoznać, co się gra na flecie lub na cytrze?
(1 list do Koryntian 14:7)

 

Człowiek nieożywiony Duchem Świętym jest zwykłym chatobotem systemu. Ma emocje i potrafi je okazywać jak AI w opisie tego inżyniera.

 

 

(63) Duch daje życie; ciało na nic się nie przyda. Słowa, które Ja wam powiedziałem, są duchem i są życiem. Jana 6.

 

Bez Słowa Bożego jesteśmy martwi. Każdy człowiek nienarodzony na nowo jest chatbotem.

 

(10) Jeżeli natomiast Chrystus w was mieszka, ciało wprawdzie podlega śmierci ze względu na [skutki] grzechu duch jednak posiada życie na skutek usprawiedliwienia. (11) A jeżeli mieszka w was Duch Tego, który Jezusa wskrzesił z martwych, to Ten, co wskrzesił Chrystusa <Jezusa> z martwych, przywróci do życia wasze śmiertelne ciała mocą mieszkającego w was swego Ducha. Rz8

 

Duch Święty pobudza do życia jakie było w ogrodzie Eden przed upadkiem pierwszej pary.

 

 

Chatboty są technologią i ludzie ufający telewizorowi (zaprogramowani) lub demonicznym doktrynom o UFO, reinkarnacji, ekumeni itp są chatbotami nauk diabelskich, są chatbotami kłamstwa.

Tylko w Jezusie Chrystusie, który dał nam swoje słowo jest życie i prawda.

 

 Ja jestem drogąprawdą i życiem. Nikt nie przychodzi do Ojca inaczej, jak tylko przeze Mnie Jana 14

 

Chwała Jezusowi.

 

Zaktualizowane: 1 marca 2023 - 10:36

Dodaj komentarz

Detektyw Prawdy, Dobra Nowina i Apokalipsa © 2015 Frontier Theme
pl_PLPolish