Post by hsankor on Jul 4, 2017 7:26:02 GMT
Ну, как автор скажет, хотя слишком примитивно выходит.
Просто отпишу свои мысли - отсутствие модуля отвечающего за заботу о человеческих жизнях - это довольно таки бредово и тупо и вот почему: если это боле-менее полноценный ИИ, то строится он будет на основе саморазвивающихся продвинутых нейронных сетей (а если быть точных их гораздо более продвинутой версии), так вот в них нет как такового отдельного модуля на что-либо, так как устройство и структура ИИ наиболее походит на человеческий разум, они обучаются в зависимости от того что ты в них вложишь в качестве обучающего материала, другими словами формирование ИИ - это скорее воспитание и обучение чем сборка из модулей приложения, то есть если он СОПКА не ценит человеческие жизни, значит его этому просто не обучали, не давали никаких данных о ценности человеческих жизней или он сформировался без учёта фактора ценности человеческих жизней, а дальше уже как с человеком, если в детстве не заложили что-то полезное в голову, то взрослому это в голову влезет только в результате очень сложных жизненных обстоятельств и то не всегда.
Можно предположить, что СОПКА начал развиваться ещё будучи незавершённой структурой, а когда его стали допиливать, не всё обучение он принял или нормально переварил, или могли забыть некоторые обучающие данные добавить или при обучении мало времени уделяли взаимодействию с людьми, короче СОПКА просто не видит ценности человеческой жизни, но не из-за отсутствия модуля, а именно из-за так сказать непродуманности формирования. Ещё добавлю о ИИ суть его создания в том, что ИИ полностью эквивалентен человеческому разуму, то есть он мыслит и осознаёт себя уже сейчас есть чат боты с которыми можно говорить и от людей их не отличишь, но при этом мыслить они не способны, они просто умеют на основе статистической выработки и определённых алгоритмов анализа подбирать слова и фразы не осознавая их, но при этом для обучения и формирования требуется единый комплекс там нет как-таковых частей со столь дифференцированными свойствами всё создаётся в процессе обучения, то есть в записи в базы данных, да после обучения утрата части баз данных может спровоцировать неадекватное поведение псевдо ИИ или в теории и полноценного ИИ, а вот отсутствие модуля (а это будет уже алгоритмическая часть) сразу сделает ИИ безмозглым.
Ещё упомяну такую деталь, как деградация современных псевдо ИИ (нейронных сетей), ранние версии могли вырождаться и становится бесполезным набором данных из-за накопления слишком разнородной информации, которая начинала противоречить друг другу, но система предполагала использование всего объёма данных из-за чего вступала в противоречие сама с собой отсюда и выплывают неверные решения и результаты работы, так что сегодня разрабы сами корректируют данные системы, чтобы она не "отупела" из-за "переизбытка" данных, но это всё-равно больше касается самих данных и их взаимосвязей, а не алгоритмов формирования этих данных.
В общем псевдо ИИ - это цельная система, а полноценный ИИ тем более отсутствие модуля не приведёт к отсутствию у ИИ каких-то понятий - это приведёт к отсутствию у ИИ возможности мыслить, а сам ИИ не появляется готовым, но рождается в результате обучения и взаимодействия с людьми и др. ИИ, так что отсутствие понимания ценности человеческой жизни или ненависть к людям - это не отсутствие какого-то модуля - это отсутствие отвечающего за это пункта в обучении/воспитании, без алгоритмических модулей ИИ не будет мыслить, а создать базу для так сказать гуманизации ИИ не выйдет, так как он сам её создаёт в результате обучения.
Просто отпишу свои мысли - отсутствие модуля отвечающего за заботу о человеческих жизнях - это довольно таки бредово и тупо и вот почему: если это боле-менее полноценный ИИ, то строится он будет на основе саморазвивающихся продвинутых нейронных сетей (а если быть точных их гораздо более продвинутой версии), так вот в них нет как такового отдельного модуля на что-либо, так как устройство и структура ИИ наиболее походит на человеческий разум, они обучаются в зависимости от того что ты в них вложишь в качестве обучающего материала, другими словами формирование ИИ - это скорее воспитание и обучение чем сборка из модулей приложения, то есть если он СОПКА не ценит человеческие жизни, значит его этому просто не обучали, не давали никаких данных о ценности человеческих жизней или он сформировался без учёта фактора ценности человеческих жизней, а дальше уже как с человеком, если в детстве не заложили что-то полезное в голову, то взрослому это в голову влезет только в результате очень сложных жизненных обстоятельств и то не всегда.
Можно предположить, что СОПКА начал развиваться ещё будучи незавершённой структурой, а когда его стали допиливать, не всё обучение он принял или нормально переварил, или могли забыть некоторые обучающие данные добавить или при обучении мало времени уделяли взаимодействию с людьми, короче СОПКА просто не видит ценности человеческой жизни, но не из-за отсутствия модуля, а именно из-за так сказать непродуманности формирования. Ещё добавлю о ИИ суть его создания в том, что ИИ полностью эквивалентен человеческому разуму, то есть он мыслит и осознаёт себя уже сейчас есть чат боты с которыми можно говорить и от людей их не отличишь, но при этом мыслить они не способны, они просто умеют на основе статистической выработки и определённых алгоритмов анализа подбирать слова и фразы не осознавая их, но при этом для обучения и формирования требуется единый комплекс там нет как-таковых частей со столь дифференцированными свойствами всё создаётся в процессе обучения, то есть в записи в базы данных, да после обучения утрата части баз данных может спровоцировать неадекватное поведение псевдо ИИ или в теории и полноценного ИИ, а вот отсутствие модуля (а это будет уже алгоритмическая часть) сразу сделает ИИ безмозглым.
Ещё упомяну такую деталь, как деградация современных псевдо ИИ (нейронных сетей), ранние версии могли вырождаться и становится бесполезным набором данных из-за накопления слишком разнородной информации, которая начинала противоречить друг другу, но система предполагала использование всего объёма данных из-за чего вступала в противоречие сама с собой отсюда и выплывают неверные решения и результаты работы, так что сегодня разрабы сами корректируют данные системы, чтобы она не "отупела" из-за "переизбытка" данных, но это всё-равно больше касается самих данных и их взаимосвязей, а не алгоритмов формирования этих данных.
В общем псевдо ИИ - это цельная система, а полноценный ИИ тем более отсутствие модуля не приведёт к отсутствию у ИИ каких-то понятий - это приведёт к отсутствию у ИИ возможности мыслить, а сам ИИ не появляется готовым, но рождается в результате обучения и взаимодействия с людьми и др. ИИ, так что отсутствие понимания ценности человеческой жизни или ненависть к людям - это не отсутствие какого-то модуля - это отсутствие отвечающего за это пункта в обучении/воспитании, без алгоритмических модулей ИИ не будет мыслить, а создать базу для так сказать гуманизации ИИ не выйдет, так как он сам её создаёт в результате обучения.




