Truth in the end times. Biblical Christians.

Biblical Christians. THE TRUTH FOR THE FOLLOWERS OF JESUS CHRIST "Ye shall know the truth, and the truth shall make you free."

4 Comments

Add a Comment
  1. Co tak faktycznie wydarzyło się:

    – testowany był model agentowy. Model, który uczył się operować komputerem jak człowiek;
    – sprawdzano, czy ten nowy model potrafiłby nauczyć się zachowań nieporządanych (omijanie instrukcji);
    – tak, symulował sytuację po której starał się kontynować pracę pomimo otrzymania komendy wyłączenia.

    -to nie był chat gpt, to był model laboratoryjny;
    – model nie manipulował swoim kodem;
    – próba obejścia komendy wyłączenia wynika z tego, że tak go wyszkolono

    wnioski: tak, można nauczyć model AI (w specyficznych warunkach) aby stał się sprytniejszy ale tylko pod jednym warunkiem – trzeba go takim wyszkolić.

    To nie jest żadna rewelacja. Modele AI można tak wyszkolić, że będą generowały obrazy w stylu Rembranta ale można również tak, że będą generowały szajs.

    1. To nie zmienia faktu, że skoro Talmudysci tworzą AI, to może ono działać tak jak oni chcą

  2. czat gpt wcale nie jest takim genialnym narzędziem na jakie go kreują. to jest tylko gigantyczny zbiór danych. owszem, na pierwszy rzut można odnieść wrażenie, jakby klikało się z człowiekiem (operuje językiem naturalnym, zna niuanse językowe) ale ta otoczka szybko opada i można dostrzeć maszynową naturę tego czata.

    proszę sobie wyobrazić, że to narzędzie za miliard dolarów nie jest w stanie poprawić własnego kodu(!). przeprowadziłem eksperyment – poprosiłem o napisanie kodu, potem wprowadzałem poprawki. czat pogubił się i już nie był w stanie tego naprawić.

    najlepsze jest to, że sprytnie unikał jednoznacznego, wyraźnego przyznania się do tego, że nie potrafi tego zrobić (ale to nie wynika z tego, że posiada osobowość, świadomość, nie, po prostu tak został wyszkolony).

    tak, czat gpt przyznaje bez problemu, że popełnia błędy ale
    dopiero po 6 godzinach (sic!) moich nacisków przyznał się (napisał), że nie jest w stanie tego poprawić.

    to jest przydatne narzędzie w którym nie ma żadnej mistyki, metafizyki itd – to tylko świetnie wyszkolony model AI, który potrafi być niewiarygodnie irytujący w swoich błędach.

  3. przeprowadziłem biblijny eksperyment z czatem gpt dotyczący długiego dnia Jozuego. Zapytałem go o interpretacje.

    wygenerował różne możliwości – począwszy od astronomicznego, poprzez kulturowy a zakończył na mitologicznym. podsumował to, że nawet jeżeli przyjąć, że był to cud, to nie ma możliwości umiejscowienia go w konkretnych ramach czasowych (data).

    następnie przedstawiłem mu następujący logiczny problem: ziemia jest kulą. jeżeli biblia opisuje długi dzień Jozuego to po drugiej stonie gdzieś w mezoameryce powinny zachować się opowieści o nienaturalnie długiej nocy.

    okazało się, że tak, takie opowieści, mity faktycznie są (aztekowie, majowie). gdzieś tam dawno temu nastąpiła nienaturalnie długa noc.

    a więc mamy z jednej strony długi dzień Jozuego a drugiej strony opowieści o długiej nocy.

    konkluzja czata była taka. są takie przekazy ale nie ma możliwości czasowego ich połączenia, po prostu nie ma takich danych.

Leave a Reply

Truth Detective, Good News and Revelation © 2015 Frontier Theme
en_USEnglish