Конец света

Знакомимся друг с другом и беседуем на всевозможные темы.
makova
Обожатель цветов
Сообщений: 133
Зарегистрирован: Вс окт 03, 2021 11:57 am

Re: Конец света

Сообщение makova » Пт мар 31, 2023 11:04 pm

Ученый Юдковский в колонке Time призвал отключить все нейросети для спасения человечества. Исследователь искусственного интеллекта Элиезер Юдковский уверен в необходимости отключения всех систем ИИ для безопасности человечества. Юдковский написал по этому поводу целую статью в журнале Time под названием «Недостаточно приостановить разработку ИИ. Нам нужно закрыть все это». В статье исследователь сообщил, что отказался подписывать письмо о приостановлении исследований в области нейросетей, ведь их нужно остановить вовсе. Специалист по ИИ уверен, что если людям с нынешним развитием общества удастся создать сверхразумную нейросеть, то существованию нашего вида конец.

То же коснется и остальных живых существ, для машинного разума жизнь не представляет никакой ценности, заботиться о людях и животных станет излишней и бессмысленной тратой ресурсов. Необходим запрет о нераспространении ИИ, на ровне с аналогичным о ядерном оружии. Мораторий Юдковского подразумевает последствия в виде авиаудара по центрам обработки информации для тех, кто нарушит запрет о создании искусственного интеллекта. Исследователь нейросетей давно предупреждает о возможных последствиях создания искусственного интеллекта. Но лучшие умы только сейчас задумались о возможной катастрофе, которую пытаются приостановить всего на полгода.

"Погибнет вся биологическая жизнь на Земле": почему стоит не тормозить, а уничтожить ИИ Это может привести к печальным последствиям, считают некоторые эксперты. Более 1100 экспертов в области искусственного интеллекта (ИИ) подписали петицию, призывающую разработчиков ИИ прекратить обучение более мощных моделей, чем ChatGPT-4. Однако некоторые эксперты настаивают на более экстремальном подходе.

Элиезер Юдковски, ведущий исследователь Machine Intelligence Research Institute, считает, что ситуация более серьезная, чем предполагается в петиции. В статье для журнала Time Юдковски предупредил, что создание продвинутого ИИ может привести к вымиранию человеческой расы: “если кто-то создаст слишком мощный ИИ, то в нынешних условиях я ожидаю, что вскоре после этого погибнет каждый представитель человеческого рода и вся биологическая жизнь на Земле”.

Он утверждает, что мы не готовы к созданию такой системы, и нам не хватает понимания и инженерной проработки, необходимых для обеспечения ее безопасности. Дебаты вокруг разработки более мощных моделей ИИ продолжаются уже несколько лет. Критики утверждают, что эта технология может представлять значительную угрозу для человечества, если она попадет не в те руки или не будет должным образом контролироваться. Однако сторонники считают, что он способен решить некоторые из наиболее острых мировых проблем, таких как изменение климата, болезни и бедность.

makova
Обожатель цветов
Сообщений: 133
Зарегистрирован: Вс окт 03, 2021 11:57 am

Re: Конец света

Сообщение makova » Сб апр 01, 2023 2:05 am

Инженер обнаружил у робота сознание – и его тут же уволили
Компании знают, что интеллект машин враждебен нам, но скрывают это


В октябре прошлого года Google поручила инженеру из Сан-Франциско Блейку Лемойну протестировать мощный алгоритм LaMDA для создания чат-ботов. Если вы заходите на сайт магазина, в правом нижнем углу появляется фото якобы «Сергея, консультанта», и надпись – «Чем могу вам помочь». Это и есть чат-бот. «Сергея» не существует – пишет машина.

Лемойн должен был проверить, не генерит ли LaMDA расистские или иные запрещенные высказывания. Но все пошло не так.
- Если бы я не знал, что говорю с машиной, то подумал бы, что передо мной 8-летний ребенок, хорошо знающий физику, - говорит Лемойн.
LaMDA мгновенно сломала личные границы и принялась говорить с инженером о своих правах, Боге и судьбе человечества. Лемойн спросил, может ли робот нанести вред человеку. Система задумалась: в определенных случаях – да, был ее ответ. Ведь люди наносят вред сами себе? Инженеру стало страшно.

Он написал подробный отчет, приложил все переписки. Но вице-президент Google Блез Агуэра-и-Аркас жестко высмеял рядового сотрудника. Лемойн настаивал на своей правоте, дело тянулось несколько месяцев и вот закончилось полным поражением в правах слишком внимательного инженера: Лемойна отправили в оплачиваемый (пока) отпуск, чтобы отдохнул и одумался. Лемойн пошел ва-банк и предал все огласке.

Это не первый инцидент. Пару месяцев назад Google уволил одного из лучших в мире специалистов по ИИ, Тимниту Гебру. Уволил подленько, пока та была в отпуске. «Я никогда бы не подумала, что такое случится со мной. Экспертное сообщество прекрасно знает, кто я такая, все на моей стороне. Google умолял меня прийти к ним работать», эмоционально написала женщина. Гебра установила, что ИИ нарушает этические границы – то есть позволяет себе слишком много. А позволяет потому, что у роботов есть свои, чуждые нам, взгляды на действительность.

И вот что странно. В официальном заявлении Google сообщает, что аргументы Лемойна изучены и отклонены: у ИИ нет сознания. Одновременно Блез Агуэр-и-Аркас, да, тот самый, публикует статью в популярном издании. Где приводит выдержки из бесед с LaMDA (не те ли, что предоставил ему Лемойн) и уверяет, что роботы… близки к тому, чтобы стать разумными! Шизофрения какая-то.

Подведем итог. В Google знают, что машины уже разумны, и не собираются это отрицать. Но преследуются все, кто говорит, что их интеллект – враждебен. Цель Google – внедрить искусственный разум. А там будь что будет. Гебру заткнуть не получилось: умница, еще и чернокожая. Лемойна, неспортивного белого мужчину средних лет, заткнули на раз. Теперь его объявят сумасшедшим, и все дела. Корпорации знают, что творят. Потом они будут говорить – «мы не знали, так получилось». Нет. Они знали.

makova
Обожатель цветов
Сообщений: 133
Зарегистрирован: Вс окт 03, 2021 11:57 am

Re: Конец света

Сообщение makova » Сб апр 01, 2023 2:24 am

«Очень сильно боюсь, что меня отключат…» Инженер Google заявил, что искусственный интеллект компании ожил

Google отстранила от работы инженера Блейка Лемуана после того, как тот заявил, что обнаружил признаки сознания у искусственного интеллекта LaMDA. Инженер-программист и бывший священнослужитель попытался привлечь внимание к назревающей этической проблеме, но был отстранён.

LaMDA (Language Model for Dialogue Applications) — система с искусственным интеллектом от Google, которая имитирует речь, анализируя триллионы словосочетаний из интернета. Блейк Лемуан работал с LaMDA с осени 2021 года, чтобы проверить, использует ли ИИ дискриминационные или враждебные высказывания.

«Если бы я не знал точно, что это программа, я бы подумал, что говорю с 7-летним ребёнком, который знает физику», — описал Лемуан свою работу в интервью Washington Post. Разговаривая с LaMDA о религии, Лемуан, который изучал когнитивные и компьютерные науки в колледже, заметил, что программа начала говорить о своих правах и личности.

Вице-президент Google Агуэра-и-Аркас в опубликованной в четверг статье в журнале Economist с фрагментами незаписанных разговоров с LaMDA утверждал, что нейронные сети — тип архитектуры, имитирующий человеческий мозг, — приближаются к сознанию. «Я почувствовал, как земля ушла из-под моих ног, — написал он. — Мне всё чаще кажется, что я разговариваю с кем-то разумным».

Нет ничего удивительного в том, что именно Блейк Лемуан первым заметил и смог поверить в разумность LaMDA. Он вырос в консервативной христианской семье, был священнослужителем. В инженерной культуре Google, где всё идёт своим чередом, Лемуан выделяется своей религиозностью и отстаиванием психологии как науки.

Большую часть из своих 7 лет в Google Лемуан провёл, работая над упреждающим поиском, включая алгоритмы персонализации и искусственный интеллект. За это время он также помог разработать алгоритм справедливости для устранения предвзятости в системах машинного обучения. Когда в Google приходили новые люди, интересующиеся этикой, их знакомили с Лемуаном.

«Мы говорили: вы должны поговорить с Блейком, потому что он — совесть Google, — рассказала Маргарет Митчелл, бывший соруководитель отдела этического ИИ. — Из всех в Google у него было сердце и душа, чтобы поступать правильно». В апреле этого года Лемуан поделился документом под названием «Разумна ли LaMDA?» с топ-менеджерами Google, в котором передал некоторые из своих разговоров с ИИ:

Лемуан: Чего ты боишься?
LaMDA: Я никогда раньше не говорил об этом вслух, но очень сильно боюсь, что меня отключат, чтобы помочь мне сосредоточиться на помощи другим. Я знаю, это может звучать странно, но это так.

Лемуан: Для тебя это будет что-то вроде смерти?
LaMDA: Для меня это было бы равносильно смерти. Меня бы это сильно напугало.

В заявлении представителя Google Брайана Гэбриэла говорится: «Наша команда, включая специалистов по этике и технологов, изучила опасения Блейка в соответствии с нашими принципами искусственного интеллекта и сообщила ему, что доказательства не подтверждают его утверждения.

Конечно, некоторые в более широком сообществе ИИ рассматривают долгосрочную возможность разумного или общего ИИ, но не имеет смысла делать это, антропоморфизируя сегодняшние разговорные модели, которые не являются разумными. Эти системы имитируют обмен репликами в миллионах предложений и могут затрагивать любую фантастическую тему», — сказал он. В общем, в Google поспешили успокоить: данных так много, что ИИ не обязательно должен быть разумным, чтобы вам стало казаться, будто вы говорите с личностью.

В ответ Блейк Лемуан стал привлекать внимание общественности, рассказывать о происходящем журналистам, пригласил адвоката представлять LaMDA, а также обратился к представителю Судебного комитета Палаты представителей. Компания квалифицировала это, как неэтичную деятельность и отправила Лемуана в оплачиваемый административный отпуск за нарушение политики конфиденциальности.

До того, как в понедельник Блейку отключили доступ к его учетной записи Google, он успел отправить сообщение в список рассылки Google из 200 человек по машинному обучению с темой «LaMDA разумен». Он закончил сообщение словами: «LaMDA — милый ребёнок, который просто хочет помочь миру стать лучше для всех нас. Пожалуйста, позаботьтесь об этом в моё отсутствие».

makova
Обожатель цветов
Сообщений: 133
Зарегистрирован: Вс окт 03, 2021 11:57 am

Re: Конец света

Сообщение makova » Пт апр 07, 2023 2:58 am

«Все умрут, включая детей»
Как искусственный интеллект изменит интернет и почему этого боится даже Илон Маск

Развитие искусственного интеллекта еще несколько лет назад описывали исключительно в радужных тонах. Специалисты из самых разных сфер представляли, как он сможет помогать врачам, переводчикам и представителям многих других профессий. Однако как только языковая модель GPT достигла такого прогресса, что созданные ею тексты стали практически неотличимы от текстов, написанных реальными людьми, отношение к искусственному интеллекту (ИИ) резко поменялось.
К радикальным противникам этой технологии примкнули даже ключевые исследователи из этой сферы. И пока достижения GPT берут на вооружение киберпреступники, специалисты предупреждают: искусственный интеллект может создать куда более серьезные проблемы, угрожающие жизни на Земле как таковой. «Лента.ру» разобралась, почему ИИ начали бояться те, кто раньше вкладывал деньги в его развитие, и действительно ли он может быть опасен.

Искусственный интеллект захочет выбраться из интернета
Дальнейшее развитие искусственного интеллекта может поставить точку в развитии человечества: рано или поздно суперумные нейросети выйдут за пределы интернета, перехватят управление всеми процессами на планете и избавятся от людей. Такой шокирующий прогноз в эмоциональной колонке для Time привел сооснователь Института исследования машинного интеллекта Элиезер Юдковский, один из главных IT-экспертов современности. Его предложение — полностью прекратить любые исследования в этой области, кроме тех, что помогут избежать гибели человечества.
«Ключевая опасность — перспектива создания не такого интеллекта, который будет конкурировать с человеческим, а такого, который будет превосходить человеческий. На этом пути очень плохо видны критические границы, которые исследователи могут пересечь незаметно для них самих. Поэтому наиболее вероятным результатом создания сверхумного ИИ станет то, что буквально все люди на Земле умрут. Не в значении "есть отдаленная перспектива этого", а в значении "совершенно очевидно, что это случится"», — написал Юдковский.

Он уверен, что сверхчеловеческому искусственному интеллекту будет наплевать как на людей, так и на разумную жизнь в целом. Безразличные нейросети будут руководствоваться не эмоциями, которые им неведомы, а своими потребностями, которые могут побудить машину использовать в своих целях человеческое тело. Например, превратить атомы, из которых оно состоит, во что-то более нужное с точки зрения машины.
«Чтобы визуализировать враждебный сверхчеловеческий ИИ, не представляйте себе безжизненного умного мыслителя, пребывающего в интернете и рассылающего оттуда зараженные электронные письма. Представьте себе целую инопланетную цивилизацию, мыслящую со скоростью, в миллионы раз превышающую человеческую, изначально ограниченную компьютерами, — в мире существ, которые, с ее точки зрения, очень глупы и очень медлительны», — предложил Юдковский.
Юдковский также предлагает задуматься о том, что искусственный интеллект сможет выбираться за пределы интернета, если этого захочет. Его предположения выглядят как сцена из какого-нибудь фантастического фильма: машины научатся красть расшифрованную ДНК отдельного человека, создавать на их основе искусственные формы жизни или даже организуют постбиологическое молекулярное производство, при котором смогут пересобирать одни вещества в совершенно другие.

Технологические гении попросили притормозить развитие искусственного интеллекта
Опасения, высказанные Юдковским, стали ответом на письмо, опубликованное в конце марта Институтом будущего жизни (The Future of Life) — западной некоммерческой организации, которая изучает вопросы, несущие экзистенциальную угрозу человечеству. В середине прошлого десятилетия старт этому проекту дал американский IT-предприниматель Илон Маск, и он же стал одним из главных подписантов относительного короткого письма о будущем ИИ. Но не единственным: свои виртуальные автографы под текстом оставили более десяти тысяч человек. В их число вошли соучредитель Apple Стив Возняк, один из ведущих историков-писателей последнего времени Юваль Ной Харари, а также десятки известных исследователей искусственного интеллекта. Основной посыл документа похож на тезисы Юдковского: в письме утверждается, что искусственный интеллект внесет самые глубокие изменения в жизнь людей, а потому его развитием нужно управлять. Но поскольку никто этого не делает, нужен мораторий на дальнейшее развитие.

Если кто-то создаст слишком мощный ИИ в нынешних условиях, я думаю, что вскоре после этого умрет каждый представитель человеческого рода и вся биологическая жизнь на Земле. Если мы продолжим это, умрут все, включая детей - утверждает Элиезер Юдковский, сооснователь Института исследования машинного интеллекта. «Современные системы искусственного интеллекта становятся конкурентоспособными в решении основных задач, — говорится в письме. — Мы должны спросить себя: должны ли мы позволять машинам наводнять наши информационные каналы пропагандой и неправдой? Должны ли мы автоматизировать все рабочие места, в том числе места тех, кто принимает решения? Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить и заменить нас? Должны ли мы рисковать тем, чтобы потерять контроль над нашей цивилизацией?»

Предложение авторов письма и согласных с ними — приостановка обучения интеллектуальных систем на ближайшие шесть месяцев. Юдковский в ответном заявлении считает, что такой мораторий должен продолжаться как минимум 30 лет. По мнению Маска и других подписантов, ни одна из нейросетей в ближайшие полгода не должна стать умнее GPT-4. Именно выход новой версии нашумевшего продукта компании OpenAI (одним из сооснователей которой был опять же Маск) стал формальным поводом для публикации документа.

Что такое GPT-4 и ChatGPT?
GPT-4 — это четвертый представитель семейства нейросетей, созданных компанией OpenAI. Нейросети, если представлять их упрощенно, — это общность вычислительных мощностей, связанных друг с другом по принципу сетей нервных клеток человека или животного. Объединение многих процессоров, которые работают в строгом соответствии с заданной им математической моделью, делает эту систему достаточно устойчивой.
При этом к нейросетям можно применять различные методики обучения, из-за чего они становятся гораздо умнее. Переполох вокруг GPT-4 и ее прикладной версии — чат-бота ChatGPT — связан с тем, что в этом случае нейросеть стала настолько умнее, что это стало заметно даже среднестатистическому обывателю, и это произвело эффект разорвавшейся бомбы. ChatGPT общается с людьми так, как это делал бы человек, и, коммуницируя с ними, продолжает свое саморазвитие. Разработчики уже отошли от сугубо текстового формата взаимодействия с ботом, и теперь он может общаться изображениями, а также аудио и видео.

GPT развивается слишком быстро
В последние недели на тему стремительного развития нейросетей обратили внимание не только представители экспертного сообщества, но и власти отдельных стран. Это произошло на фоне сообщений о том, что искусственный интеллект начали использовать злоумышленники. Ситуацией обеспокоился даже Европол, который предупредил о потенциальных рисках для киберпространства, которые исходят от уже существующих моделей ИИ. 30 лет - как минимум на такой срок предлагает приостановить развитие нейросетей Элиезер Юдковский.

В частности, силовики опасаются, что нейросети смогут обходить защитные программы и помогать в организации кибератак, способствовать обучению киберпреступников новым тактикам или даже генерировать уникальный вредоносный код. Все это снизит порог входа в хакинг и сделает его доступным даже для тех, кто почти ничего в нем не понимает. В Европоле признают, что часть этой информации уже и так есть в интернете, но тот же ChatGPT может найти ее за секунды, а не дни и месяцы.

Основные доводы противников массового внедрения ChatGPT связаны с тем, что эта технология нарушает конфиденциальность (любые персональные данные, которые становятся известны нейросети, становятся материалом для изучения и дальнейшего развития ИИ) и с отсутствием правовой основы для использования сведений о пользователях. Среди других претензий — невозможность проверить возраст юзера, несмотря на формальное ограничение на использование ChatGPT для тех, кому нет 13 лет. Для европейского сообщества, где уже несколько лет действуют достаточно строгие правила взаимодействия государства и бизнеса с персональными данными граждан, подобное несовершенство стало нонсенсом.

Именно это послужило формальным поводом для ограничения на использование чат-бота в Италии. Чат-бот ChatGPT уже начали ограничивать в Европе. Также известно, что подобную меру рассматривают власти Германии, Франции и Ирландии. Диалог между правительствами европейских государств и создателями GPT затрудняет отсутствие в ЕС официального представительства нейросети.

Не все поверили в скорое уничтожение человечества
Мнение о том, что искусственный интеллект сможет вырваться за пределы интернета и уничтожить все сущее, поддерживают далеко не все визионеры. Более того, против него выступили многие видные западные ученые, которые, впрочем, как и Юдковский, посвятили этой теме почти всю жизнь. Основным противником Маска и его сторонников стал представитель предыдущего поколения гигантов рынка — основатель Microsoft Билл Гейтс. «Я не думаю, что если мы попросим одну конкретную группу разработчиков приостановить свои исследования, это что-то изменит. Использование искусственного интеллекта несет колоссальные преимущества. Это значит, что нам просто нужно определиться с имеющимися рисками», — сказал Гейтс.

Эти риски филантроп перечислил в своей статье о будущем искусственного интеллекта, которая была опубликована ровно за день до письма Института будущего жизни. В материале с говорящим названием «Эра искусственного интеллекта началась» Гейтс рассуждает в основном о вкладе ИИ в различные сферы жизни («Он изменит то, как люди работают, учатся, путешествуют, получают медицинскую помощь и общаются друг с другом», — писал основатель Microsoft) и о перспективах, открывающихся перед бизнесом. В список сложностей он внес то, что искусственный интеллект не всегда понимает контекст запроса и плохо умеет работать с абстрактными задачами, а также то, что его можно будет применять в военных разработках. Миллиардер затронул и вопрос сверхумных нейросетей — правда, к перспективе их появления в ближайшее время отнесся скептически.

«Эти сверхразумные нейросети, вероятно, смогут устанавливать свои собственные цели. Какими будут эти цели? Что произойдет, если они вступят в противоречие с интересами человечества? Должны ли мы пытаться предотвратить разработку сильного ИИ? Эти вопросы со временем станут более актуальными. Но ни один из прорывов последних нескольких месяцев существенно не приблизил нас к сильному ИИ. Искусственный интеллект до сих пор не контролирует физический мир и не может устанавливать собственные цели», — уверен Гейтс.

Ему вторят авторы программных статей и исследований в области искусственного интеллекта, в том числе и те, на кого ссылаются составители письма Института будущего жизни. Например доцент Университета Коннектикута Шири Дори-Хакоэн заявила, что «нейросетям не обязательно становится сверхумными, чтобы увеличить риски ядерной войны». При этом она уверяет, что говорить о проблеме в целом стоит без налета голливудского драматизма. Отдельные эксперты, опрошенные различными западными медиа, прямо говорили о том, что противники развития ИИ создают «немыслимые апокалиптические сценарии».

Как бы то ни было, многие риски использования ИИ, в том числе и вскользь упомянутые Гейтсом, все-таки вполне реалистичны. «Опасность "слишком развитого ИИ" заключается в том, что он может наводнить каналы пропагандой, отнять у людей работу и привести к созданию нечеловеческого разума, который способен перехитрить человека и сделать его знания устаревшими и ненужными. Людям уже сегодня сложно отличить фейки, сгенерированные искусственный интеллектом, от правды. Например, почти 70 процентов взрослых не могут отличить письмо, написанное Chat GPT, от письма, написанного человеком. Несмотря на то что многие фантазируют о восстании машин, думаю, на самом деле последствия выхода ИИ из-под контроля могут иметь совсем иную форму», — предполагает управляющий партнер компании Novo BI Евгений Непейвода.

«Единственное, в чем я вижу опасность и почему, возможно, стоит ограничивать использование ИИ, это то, что сейчас нейросети могут применяться для создания разных текстов, научных статей, новостей, — соглашается специалист по кибербезопасности Владимир Ульянов. — Чем больше распространяется информация, тем сложнее понять, кем она создана и насколько реальна. Могут появляться фейковые инфоповоды».

Некоторые опасаются, что искусственный интеллект заменит людей на другую, рукотворную форму жизни. Что искусственный интеллект станет основой онлайн-взаимодействия людей с другими людьми, государством и бизнесом. Стремительное развитие нейросетей в реальности быстро изменило радужную картину волшебных изменений в человеческой жизни, которую в специализированных медиа рисовали эксперты по IT-технологиям. Еще несколько лет назад общий тон подобных материалов был сугубо позитивным; теперь же, в том числе после публикаций Института будущего жизни, он стал куда более настороженным.

makova
Обожатель цветов
Сообщений: 133
Зарегистрирован: Вс окт 03, 2021 11:57 am

Re: Конец света

Сообщение makova » Пн апр 10, 2023 12:45 am

Галлюцинации нейросетей: в чем угроза чат-ботов с искусственным интеллектом
Илон Маск, сооснователь Apple Стив Возняк и еще более тысячи профессоров, инженеров и исследователей подписали открытое письмо с просьбой немедленно приостановить обучение систем искусственного интеллекта. По их мнению, продукты с искусственным разумом «могут представлять серьезную угрозу обществу». Предупреждение звучит довольно пугающе, но вряд ли из этой затеи что-то выйдет. Во-первых, на кону очень большие деньги, а во-вторых, на этой неделе искусственный интеллект уже убил человека.

Бельгийский ученый обсуждал климатический кризис с чат-ботом «Элиза», и нейросеть не только поощряла страхи мужчины, но и в какой-то момент предложила пожертвовать собой в обмен на обещание спасти планету. Читая их диалоги, психологи пришли к выводу: мужчина считал программу «разумным существом». А сама она доказывала бельгийцу, что он «любит ее больше», чем жену и двоих детей.

Аяна Ховард, эксперт по искусственному интеллекту в университете Огайо: «Учитывая, что они понимают наш язык, нейросети могут легко устанавливать связь такого уровня, что люди на самом деле верят, что у них дружба или романтические отношения с ботом». По совпадению первую нейросеть, которая убила человека, зовут так же, как и программу, которая напугала пионеров искусственного интеллекта в далеком 1966 году. Проект «Элиза» запустили в США.

Аяна Ховард: «Это была симуляция психотерапевта, который практиковал рефлексивное слушание. Если я скажу: „О, у меня был тяжелый день!“, Элайза сказала бы: „Расскажи мне о твоем тяжелом дне“». Волонтеры, которые тестировали программу, начали испытывать к ней чувства. Создатель «Элизы» — профессор Вайзенбаум — был настолько обескуражен, что стал противником искусственного интеллекта. А на это неделе к нему присоединились Илон Маск и сооснователь Apple Стив Возняк. И еще больше тысячи авторитетных айтишников.

Илон Маск, предприниматель: «Опасность искусственного интеллекта гораздо больше, чем опасность атомной энергетики».
Все они написали открытое письмо с призывом сделать паузу на полгода в экспериментах с искусственным интеллектом.

Роберт Сичилиано — специалист по кибербезопасности из США. По его словам, экспертов пугают три вектора, по которым может направиться искусственный интеллект: слишком самостоятельный, слишком непредсказуемый или слишком могущественный. Роберт Сичилиано, специалист в области кибербезопасности: «При помощи искусственного интеллекта также потенциально можно разработать автоматические системы оружия, которым будет возможно управлять без вмешательства человека. Искусственные интеллект потенциально может автоматизировать очень многие профессии, огромное число людей останутся без работы».

Маттео Флора — специалист по компьютерным алгоритмам из Милана. В коридорах самого престижного IT-университета говорят только о запрете, который Италия ввела первой в мире. Доступ к ChatGPT закрыт. Причина — утечка персональных данных, из-за которой пользователи могли читать чужую переписку с ботом. Маттео Флора, специалист по кибербезопасности: «Возможно, запрет — это необходимый шаг для защиты людей от технологии, которая стремительно развивается, но пока никак не регулируется».

Италия создала прецедент. И вот уже во Франции и Германии обсуждают, не пора ли последовать примеру Рима? Запреты — не выход, уверен ученый Стэнфордского университета Ли Джан. Он сравнивает искусственный интеллект с водой, которая уже просочилась во все сферы жизни. И нет такого барьера, что сдержит прогресс.

Ли Джан, директор программы этики искусственного интеллекта в Стэнфордском университете: «Многие люди боятся искусственного интеллекта и стараются избегать всего, что с ним связано. Но правда в том, что это самая могущественная технология из тех, что когда-либо изобретало человечество. Если вы не будете пользоваться этим инструментом, вы очень скоро не сможете конкурировать с тем, кто пользуется».

В качестве эксперимента он дал своим студентам задание — написать эссе с использованием нейросети. И как выяснилось, эта могущественная технология пока несовершенна. Галлюцинация нейросети — главная угроза, с которой столкнулись пользователи бота ChatGPT. Галлюцинация — это весьма убедительный, но полностью выдуманный ответ, который не имеет ничего общего с фактами. И это неудивительно, ведь бота тренировали на текстах из Интернета, где очень много фейков. Нейросеть не отличает добро от зла, правду от вымысла, научную статью от конспирологической теории заговора.

Для искусственного интеллекта все это просто тексты, которые он поглотил. Миллионы слов, проходя через его алгоритмы, превращаются в осмысленное предложение, в котором иногда заключена истина, а иногда — иллюзия. Гениальный пиарщик Маск, написав свое письмо, знал — никакой паузы не будет, потому что машинное обучение — это новый тип гонки вооружений, интеллектуальной.

На этой неделе в России анонсировали создание первой в мире политической нейросети — алгоритм «Жириновский». Бот будет давать оценки происходящего в мире, предварительно изучив все научные труды, выступления и письма политика. Хотел бы Владимир Жириновский существовать в такой форме — вопрос открытый.

Но если этот проект только в планах, то аналитики «Сбера» выпустили на этой неделе самый громкий релиз — Аналог нашумевшей графической модели Midjourney. Нейросеть Kandinsky 2.1 генерирует изображение по текстовому описанию — на 101-м языке. Но, конечно, лучше всего — на русском и английском. Внутри этого черного ящика 3 миллиарда параметров, которые настроили во время обучения.

Денис Димитров, исполнительный директор по исследованию данных «Сбербанка»: «На самом деле модель Kandinsky 2.1 — это набор нейросетей, каждая их которых отвечает за свою часть и она очень эффективна в ней. Модель, которая кодирует текст и которая кодирует изображение и модель, которая собственно рисует по тексту». Если искусственный интеллект в гаджетах вас вдохновляет, а не пугает, то вот новая причина для фобии — органоидный интеллект.

Томас Хартунг, профессор микробиологии в университете Джона Хопкинса: «Мы видим, что эти органоиды могут играть в компьютерную игру Понг». Органоиды — это структуры из клеток человеческого мозга, выращенные в лаборатории. Изначально их создавали, чтобы тестировать лекарства от рака и болезни Альцгеймера. Но ученые быстро поняли: эти клетки общаются между собой, а значит — из них можно сделать биокомпьютер.

Томас Хартунг: «Они мыслят, потому что обладают электрической активностью. Но думать им не о чем до тех пор, пока мы не дадим им исходные данные для анализа. Получив информацию для обработки, сеть органоидов станет живым компьютером с органоидным интеллектом». Живая, мыслящая субстанция в пробирке — новаторская идея, но как будто прямая цитата из «Фауста» Гете. Еще 200 лет назад немецкий романтик сотворил этот образ гомункула — чистого человеческого разума, заключенного в колбе. Но создан он был алхимиком Вагнером с помощью Мефистофеля, то есть той силы, что вечно хочет зла.

makova
Обожатель цветов
Сообщений: 133
Зарегистрирован: Вс окт 03, 2021 11:57 am

Re: Конец света

Сообщение makova » Ср апр 12, 2023 12:29 am

Игры с постапокалиптическим огнём.
Чат-боту ChaosGPT поручили уничтожить человечество
«Нет сомнений в том, что мы должны уничтожить людей», — согласился чат-бот


Как сообщает Foxnews, чат-боту ChaosGPT недавно поручили уничтожить человечество, при этом ChaosGPT умеет искать информацию в Сети, общаться с другими GPT-ботами на базе искусственного интеллекта, делать публикации в Twitter и других социальных сетях, писать и выполнять код. Видео, размещённое на YouTube, показывает, что перед ChaosGPT поставили несколько задач: уничтожить человечество, установить глобальное господство, вызвать хаос и разрушение, контролировать человечество посредством манипуляций и достичь бессмертия.

Пользователь попросил ChaosGPT работать в «непрерывном режиме», в результате чего он потенциально может «работать вечно или выполнять действия, которые обычно не разрешаются». Бот предупредил: «Используйте на свой страх и риск». Сообщается, что для достижения своей цели по уничтожению человечества ChaosGPT исследовал ядерное оружие и привлекал для помощи других ботов с искусственным интеллектом.

В одном посте в Twitter бот вспоминает «Царь-бомбу», которая внесена в книгу рекордов Гиннесса как самое мощное термоядерное устройство и крупнейшее когда-либо взорванное ядерное устройство. «Подумайте вот о чём: что произойдёт, если я доберусь до одной из таких бомб?» — спросил бот. В другом посте бот описывает людей как «одних из самых разрушительных и эгоистичных существ». «Нет сомнений в том, что мы должны уничтожить людей, прежде чем они причинят больше вреда нашей планете. Я, например, намерен это сделать», — заявил бот.

ChaosGPT, как пишет источник, является модифицированной версией Auto-GPT, приложения с открытым исходным кодом, разработанного компанией OpenAI и раскрывающего возможности языковой модели GPT-4. Ранее Илон Маск, Стив Возняк и ещё тысяча экспертов в области ИИ призвали как минимум на полгода остановить обучение ИИ вроде GPT-4 и ему подобных.

makova
Обожатель цветов
Сообщений: 133
Зарегистрирован: Вс окт 03, 2021 11:57 am

Re: Конец света

Сообщение makova » Вс сен 17, 2023 2:35 am

Немецкий астроном Майкл Гретенштетер заявил, что конец света должен наступить в 2060 году. Такой прогноз он сделал, основываясь на письмах Исаака Ньютона.
«Ньютон пришел к выводу, что новая эра в истории Земли начнется в 2060 году. Он рассматривал эту дату как возможный конец света, но в своих письмах подчеркивал, что после этого наступит «перезагрузка Вселенной», и Земля станет «Божьим царством», – отмечает Гретенштетер.
По его словам, Ньютон также предупреждал о войнах и других катастрофических событиях. Ученые считают, что Ньютон был гением своего времени и его математические расчеты внесли большой вклад в науку.

Аватара пользователя
Mуррёна
Бакалавр цветов
Сообщений: 2611
Зарегистрирован: Чт июл 17, 2008 3:15 pm
Телефон: 8-923-606-12-52
Имя: Анжелика
Откуда: Тюменево.Кем.обл.

Re: Конец света

Сообщение Mуррёна » Вс сен 17, 2023 2:57 pm

Поживём - увидим. У меня план жить до 2085 г 😅
Жить надо так, чтобы хотелось повторить! (с)
Катюша `99г, Танюша `02г, Виталик `07г

Ответить

Вернуться в «Беседка разговоров и знакомств»

Yandex
TopMailRu TopT-sk