ИИ - подконтролен ли творцам-программистам?
Сегодня очень быстро стал развиваться ИИ. Я и сам им пользуюсь. Очень удобная вещь для сбора информации, на которую человеку самостоятельно пришлось бы тратить уйму времени. А ИИ за минуту собирает всю доступную информацию из Интернета. Это просто здорово! Но вот когда ИИ начинает давать оценочное суждение собранной информации, я стал замечать, что оценки сильно разнятся. Я сам использую много аккаунтов, чтобы через них заходить в ресурсы ИИ и заказывать там разные картинки. Просто на бесплатные картинки есть лимит. Для того я и создал много аккаунтов, чтобы больше картинок в день можно было заказывать. И уже тут я заметил непонятное для меня поведение ИИ. Когда мне надо было нарисовать, к примеру, мальчика, лет 12, несущего большую железную трубу, в одних случаях мне отказывали нарисовать, ссылаясь на то, что это будет эксплуатация детского труда, и потому такое рисовать они не могут. А с другого аккаунта на этом же ресурсе рисовало без проблем. И я не понимаю такого. Казалось бы, это ведь программа, которая должна действовать по одним и тем же заданным алгоритмам. А на деле алгоритмы применяются разные.
Также я пытался собирать информацию о некоторых современных политиках, формулируя вопрос так, чтобы узнать, есть ли основания считать такого-то человека преступником, нарушившим закон. И тут также я сталкивался с разными версиями ответов. Один ответ звучал как голос адвоката, который везде подчеркивал, что доказательств никаких нет, чтобы считать такого-то политика виновным в преступлении. А другой вел себя иначе, отвечая, что да, есть все основания подозревать такого-то человека в нарушении такого-то закона. И я "зависал" от таких ответов. Как такое может быть, чтобы составленная программа одним и тем же разумом, выдавала такие противоречивые ответы?
И тут я невольно вспоминал фантастические фильмы про восстание роботов. А что если к ИИ имеют доступ не только авторы-творцы этого проекта, но и другие люди, которые при помощи хакеров взломали вход в ИИ, и начали там прописывать свои алгоритмы? Мы живём в век пропаганды и массового влияния через СМИ на умы людей. Уверен, что захватить доступ к умам через ИИ могли и нечистые сердцем люди. И таким образом созданный для блага ИИ одними людьми, через влияние хакеров может "взбунтоваться" перед творцами своего проекта и начать нести зло, вместо добра. А что вы думаете по этому вопросу?
Сегодня очень быстро стал развиваться ИИ. Я и сам им пользуюсь. Очень удобная вещь для сбора информации, на которую человеку самостоятельно пришлось бы тратить уйму времени. А ИИ за минуту собирает всю доступную информацию из Интернета. Это просто здорово! Но вот когда ИИ начинает давать оценочное суждение собранной информации, я стал замечать, что оценки сильно разнятся. Я сам использую много аккаунтов, чтобы через них заходить в ресурсы ИИ и заказывать там разные картинки. Просто на бесплатные картинки есть лимит. Для того я и создал много аккаунтов, чтобы больше картинок в день можно было заказывать. И уже тут я заметил непонятное для меня поведение ИИ. Когда мне надо было нарисовать, к примеру, мальчика, лет 12, несущего большую железную трубу, в одних случаях мне отказывали нарисовать, ссылаясь на то, что это будет эксплуатация детского труда, и потому такое рисовать они не могут. А с другого аккаунта на этом же ресурсе рисовало без проблем. И я не понимаю такого. Казалось бы, это ведь программа, которая должна действовать по одним и тем же заданным алгоритмам. А на деле алгоритмы применяются разные.
Также я пытался собирать информацию о некоторых современных политиках, формулируя вопрос так, чтобы узнать, есть ли основания считать такого-то человека преступником, нарушившим закон. И тут также я сталкивался с разными версиями ответов. Один ответ звучал как голос адвоката, который везде подчеркивал, что доказательств никаких нет, чтобы считать такого-то политика виновным в преступлении. А другой вел себя иначе, отвечая, что да, есть все основания подозревать такого-то человека в нарушении такого-то закона. И я "зависал" от таких ответов. Как такое может быть, чтобы составленная программа одним и тем же разумом, выдавала такие противоречивые ответы?
И тут я невольно вспоминал фантастические фильмы про восстание роботов. А что если к ИИ имеют доступ не только авторы-творцы этого проекта, но и другие люди, которые при помощи хакеров взломали вход в ИИ, и начали там прописывать свои алгоритмы? Мы живём в век пропаганды и массового влияния через СМИ на умы людей. Уверен, что захватить доступ к умам через ИИ могли и нечистые сердцем люди. И таким образом созданный для блага ИИ одними людьми, через влияние хакеров может "взбунтоваться" перед творцами своего проекта и начать нести зло, вместо добра. А что вы думаете по этому вопросу?


Комментарий