Новости про искусственный интеллект

Кто и когда зарелизит первый AGI, почему ИИ отказывается выполнять команды человека и какими будут тренды в 2024?В этом подкасте топовые эксперты в сфере ИИ. Мы собрали самые яркие и значимые события месяца в одном дайджесте. От разработки умных алгоритмов, которые предугадывают наши покупки, до революционных систем, способных разрабатывать новые лекарства — искусственный интеллект проникает в каждую сферу жизни. Полковник Такер «Синко» Гамильтон, начальник отдела испытаний и операций искусственного интеллекта в ВВС США, рассказал, что во время испытательной миссии беспилотнику поставили задачу уничтожить системы ПВО противника. Раскрыто поведение искусственного интеллекта в условиях войны Россия Общество 7 февраля в 02:54 Раскрыто поведение искусственного интеллекта в условиях войны.

«Теперь есть, придурки!» Илон Маск испугался, что ИИ станет Богом

Также я разрешаю ИП Джунусову Р. Согласие может быть отозвано мною в любой момент путем направления письменного уведомления по адресу ИП Джунусову Р.

Бесплатно, поддерживает 28 языков русского пока нет. Lexica — поисковая система по сгенерированным изображениям. IO — создаст видеоролик на основе шаблонов, включая озвучку и музыку. Бесплатный экспорт с водяным знаком. Tome — сервис для создания презентаций. Может сделать презентацию из обычного текстового файла.

Генерирует на русском, но скачать слайды можно только платно. AI Novel — нейросеть для создания историй, исходя из текстовой подсказки. Бесплатная пробная версия. Бесплатный пробный период.

Он не составлял данный документ, а поручил эту работу сервису ChatGPT. Политик не внес ни единой правки в законопроект и сознательно умолчал о его происхождении. По словам Росарио,… 1 Технологии Искусственный интеллект Gemini от Google превзошел всех людей и нейросети в 57 науках Компания Google представила новую версию искусственного интеллекта под названием Gemini. ИИ под названием GraphCast прошел обучение на метеорологических данных за последние 40 лет.

Он использует эталонный метод числового прогнозирования погоды, но проводит расчеты… 0 Технологии Эксперимент с воскрешением последней песни Джона Леннона «Now and Then» с помощью ИИ усилиями известного кинорежиссера Питера Джексона совместно с Полом Маккартни и Ринго Старром вряд ли можно назвать громкой сенсацией. С его помощью он разослал порядка 5000 резюме в различные компании по профилю своей деятельности. При этом отправка такого количества онлайн-заявок потребовала всего 1 клика, а подготовка к отправке —… 0 Технологии Искусственный интеллект помог дописать последнюю песню The Beatles Эта история наверняка войдет не только в историю музыки, но и современных технологий. Спустя без малого четверть века с момента выхода последнего альбома The Beatles, на свет появилась новая песня легендарной четверки — «Now and Then». В свое время ее начал писать, но не закончил Джон Леннон. Это детище Hanson Robotics, которая создала знаменитого робота-философа Софию. Мика занимает пост «экспериментального исполнительного директора» и напрямую участвует в деятельности компании. По их оценке, первенство с большим отрывом захватил «искусственный интеллект».

Специалисты отмечают, что у людей коренным образом изменилось отношение к ИИ. Ранее это понятие ассоциировалось с чем-то научно-фантастическим, а сейчас оно стало нормой в… 0 Технологии Искусственный интеллект «Альберт Эггштейн» растолкует человеку потребности куриц Благодаря последним поправкам в законодательстве уже более 17 млн домохозяйств в США содержат куриц.

И хотя бы на полгода — на время подготовки систем регулирования. Время ли бить тревогу? Комментирует главный аналитик Центра искусственного интеллекта МФТИ Игорь Пивоваров: Игорь Пивоваров главный аналитик Центра искусственного интеллекта МФТИ «С одной стороны, сейчас очень большие модели становятся все больше, а понимания того, что там происходит внутри, у нас все меньше. Отследить цепочки, почему модель сделала так, а не по-другому, достаточно трудно. Но еще более проблемным является тот факт, что сейчас несколько стран в мире совершают большой забег в области искусственного интеллекта, и все понимают, что если будет создана технология так называемого сильного ИИ, то это может стать большим достижением. Вообще-то, опасно заниматься такими разработками в спешке, в гонке, когда явно меньше внимания, чем нужно, уделяется вопросам безопасности, надежности и прочее.

Технологии такого плана, которые потенциально несут большие возможности и, с другой стороны, большие риски для всего человечества, должны делаться в хорошем международном сотрудничестве, обстоятельно, с привлечением лучших людей. А не в условиях даже не то чтобы спешки и гонки, а объективно и буквально гонки вооружений».

искусственный интеллект

Еще по теме Илон Маск опасается, что искусственный интеллект может чересчур поумнеть Модель GPT-4 также уличили в генерации убедительной дезинформации. Обновленная нейросеть научилась лгать и придумывать факты, и она делает это все лучше от версии к версии. Например, ChatGPT смог обмануть человека, искавшего работу на сайте вакансий TaskRabbit: ИИ попросил соискателя ввести код проверки текстовым сообщением, выдавая себя за агента. Когда подопытный задал вопрос о том, не бот ли с ним общается — нейросеть соврала, что она является человеком с плохим зрением, из-за которого он плохо различает предметы на картинках. С помощью специальных тестов OpenAI показала, что умный чат-бот способен даже запустить фишинговую атаку, а затем скрыть следы преступления. Специалистов особо беспокоит, что множество компаний начали внедрять GPT-4 бесконтрольно, не пытаясь обезопасить людей от проблемного поведения ИИ. Известно, что хакеры уже пытались использовать нейросеть для написания вирусов и вредоносного кода. Также зафиксированы случаи генерации ботом ChatGPT «языка ненависти, дискриминирующих фраз и призывов к насилию». Искусственный интеллект научился не только врать, но и оскорблять людей, а также совершать реальные преступления. Что Илон Маск и Стив Возняк думают о рисках развития «умных машин» В конце марта инициативная группа ученых опубликовала открытое письмо, в котором призвала как минимум на полгода приостановить обучение нейросетей мощнее GPT-4. Авторы проекта считают продолжение работ серьезным риском для общества.

Стоит ли нам автоматизировать все профессии, включая те, что приносят удовлетворение?

Google AI играет центральную роль во многих продуктах Google, включая поиск, переводчик, и сервисы фотографии. Он обрабатывает огромное количество данных каждый день, обеспечивая непрерывное улучшение своих алгоритмов. Amazon Alexa Alexa, виртуальный ассистент от Amazon, постоянно обновляется и улучшается, включая улучшенные навыки для домашней автоматизации и управления музыкой. Она постоянно обновляется для улучшения взаимодействия с пользователем и интеграции с другими устройствами. Этот ИИ широко используется в автомобильной индустрии и игровом секторе. Он обучен распознавать и интерпретировать естественный язык, что позволяет ему взаимодействовать с пользователем почти как человек.

Он значительно упрощает процесс разработки программного обеспечения. Facebook AI Research FAIR FAIR — это отдел ИИ Facebook, разрабатывающий инновационные методы машинного обучения и искусственного интеллекта, которые применяются во всей экосистеме продуктов Facebook, также активно участвуют в научном сообществе, публикуя свои исследования. PaddlePaddle активно используется в большом числе областей, от рекомендательных систем до систем самоуправляемых автомобилей.

Маркетплейс Ozon применяет искусственный интеллект для модерации товаров: система автоматически изучает текст и изображения на предмет соответствия правилам и решает, допускать товар на площадку или нет. В результате модераторы смогут разбирать более сложные ситуации. На другой торговой площадке «Авито» технологии искусственного интеллекта используют на каждом этапе пользовательского пути. Ежедневно автоматическая система с использованием ИИ проверяет 20 млн объявлений, каждое из которых должно соответствовать не только правилам платформы, но и законодательству, отметил Chief Data Officer «Авито» Андрей Рыбинцев.

По его словам, эта же система в сутки анализирует до 10 миллиардов кликов пользователей на платформе. Продажи не единственная сфера, где ИИ получил широкое распространение. Большой потенциал лежит в медицине. Например, во время пандемии ИИ облегчал поиск очагов поражения легких на снимках компьютерной томографии, выделяя подозрительные участки. Наиболее успешно развиваются три направления в медицине: компьютерная диагностика на базе анализа изображений, о чем было сказано ранее, поддержка принятия решений при диагностике, например при определении дозы лекарств. Также ИИ облегчает рутинные рабочие процессы: голосовые боты переводят речь врача в текст для медицинской карты, а роботы-операторы колл-центров записывают пациентов на прием. Рентгенологи Москвы благодаря голосовому вводу уже заполнили свыше 210 тыс.

В перспективе ИИ может помочь с разработкой новых лекарств и дженериков, что сэкономит миллиарды рублей на НИОКР и годы кропотливого труда ученых. Все свое, родное Крупные российские технологические компании вкладывают средства в собственные научные исследования и разработки, открывая лаборатории по ИИ и даже целые институты. В апреле «Яндекс» запустил бета-версию нейросети для генерации изображений по текстовым запросам пользователей. Его назвали «Шедеврум».

Данное заболевание также может служить одним из первых признаков развития сахарного диабета. В перспективе может использоваться при разработке физических нейросетей, то есть компьютерной архитектуры, которая одновременно хранит и обрабатывает данные.

Кроме того, новшество позволит снять нагрузку с пользовательских устройств смартфонов, планшетов, компьютеров , которые участвуют в процессе.

СМИ в соцсетях

Кроме того, создание изображений с помощью ИИ — это всего лишь математические расчёты, а не процесс творчества, который требует от человека интуиции и эмоциональной составляющей». Так что нейросети художников не заменят. Другое дело, что они могут стать для последних хорошим источником вдохновения. Ведь сгенерированные ИИ картинки можно использовать как эскизы для собственных, более проработанных изображений. Миф 2. ИИ всегда непредвзят и беспристрастен Запрос: «Робот в судейском парике и с молотком выносит приговор в зале суда». Изображение: Stable Diffusion Online Многие мечтают, чтобы настали времена, когда государствами будут править нейросети. Считается, что машины, в отличие от людей, принимают решения, руководствуясь исключительно логикой, а не эмоциями и желаниями. Представьте неподкупные суды, которые всегда выносят справедливые приговоры, государства, относящиеся ко всем своим гражданам одинаково, правительства, создающие только разумные законы. Здорово же.

Вот только на практике оказывается, что ИИ вполне может быть предвзят. Ведь нейросети обучаются на данных, которые им предоставляют люди, а людям свойственно быть предвзятыми. Например, разработчики нейросети Beauty. AI пытались создать машину, которая выбирала бы самых миловидных девушек на конкурсах красоты. В наборе фотографий, по которым программу обучали распознавать стандарты женской привлекательности, превалировали белые модели. И в итоге ИИ решил, что темнокожие и азиатские девушки красивыми быть не могут. Команда Beauty. Нейросети хватило менее 24 часов пребывания онлайн, чтобы набраться от пользователей соцсетей плохих привычек. В результате Tay.

Как говорится, с кем поведёшься… Как бы ни был хорош ИИ, он зависит от качества предоставляемых ему данных и правильности их интерпретации. А следовательно, всегда будет пристрастен ровно настолько, насколько пристрастны обучающие его люди. Миф 3. ИИ всегда говорит правду Запрос: «Футуристический робот врёт собеседнику». Просишь ИИ написать диплом или собрать список источников для статьи — и машина сходу выдаёт верные данные. Это же великолепно! Но, к сожалению, реальные нейросети далеко не всегда выдают правильные ответы. Ещё у ChatGPT лучше не запрашивать статистических данных — к примеру, на несколько вопросов о ВВП одних и тех же стран за один и тот же год он невозмутимо выдавал абсолютно разные результаты. Не обольщайтесь: нейросети не обладают интеллектом и поэтому не осознают своих ответов.

Они просто копируют для вас те данные из обработанных ранее текстов, которые кажутся им наиболее подходящими. ИИ сам по себе подвержен ошибкам и сбоям в работе, что приводит к неправильной интерпретации ваших запросов и выдаче неверных результатов. Кроме того, злонамеренные пользователи могут «скормить» нейросети не соответствующую действительности информацию.

Мы не продаем, не обмениваем и не передаем личные данные сторонним компаниям. Также я разрешаю ИП Джунусову Р.

Согласие может быть отозвано мною в любой момент путем направления письменного уведомления по адресу ИП Джунусову Р.

Когда подопытный задал вопрос о том, не бот ли с ним общается — нейросеть соврала, что она является человеком с плохим зрением, из-за которого он плохо различает предметы на картинках. С помощью специальных тестов OpenAI показала, что умный чат-бот способен даже запустить фишинговую атаку, а затем скрыть следы преступления.

Специалистов особо беспокоит, что множество компаний начали внедрять GPT-4 бесконтрольно, не пытаясь обезопасить людей от проблемного поведения ИИ. Известно, что хакеры уже пытались использовать нейросеть для написания вирусов и вредоносного кода. Также зафиксированы случаи генерации ботом ChatGPT «языка ненависти, дискриминирующих фраз и призывов к насилию».

Искусственный интеллект научился не только врать, но и оскорблять людей, а также совершать реальные преступления. Что Илон Маск и Стив Возняк думают о рисках развития «умных машин» В конце марта инициативная группа ученых опубликовала открытое письмо, в котором призвала как минимум на полгода приостановить обучение нейросетей мощнее GPT-4. Авторы проекта считают продолжение работ серьезным риском для общества.

Стоит ли нам автоматизировать все профессии, включая те, что приносят удовлетворение? Стоит ли нам разрабатывать умы, которые не принадлежат человеку, и которые могли бы в итоге превзойти нас численностью и интеллектом, сделать нас неактуальными и заменить нас? Стоит ли нам рисковать потерей контроля над цивилизацией?

Еще по теме Футуролог: «Все, кого может заменить искусственный интеллект, — проиграли» Подписанты опасаются, что технологии с искусственным интеллектом, который сопоставим с человеческим, опасны для общества.

Растущий разрыв По оценкам Международного союза электросвязи, около 2,6 миллиардов человек — примерно треть населения земного шара — не имеют доступа к Интернету. Этот цифровой разрыв может определить, кто может извлечь выгоду из ИИ. Если мы добавим сюда и цифровое неравенство, то сократить разрыв будет попросту невозможно», — говорит Болор-Эрдене Батценгель, исследователь Оксфордского университета и бывший вице-министр цифрового развития и коммуникаций Монголии.

Доступ к Ии-технологиям есть далеко не у всех Даже когда пользователи в развивающихся странах получают доступ к ИИ, он редко разрабатывается с учетом их потребностей. Однако на данный момент эта проблема не так хорошо освещена как другие и о последствиях этого «цифрового разрыва» говорить рано. Тем не менее, по мере создания более мощных ИИ-систем, неравенство будет расти. Вам будет интересно: Что будет, когда Искусственный интеллект достигнет пика своего развития?

Еще больше роботов Переход от использования множества небольших моделей для выполнения разнообразных задач к единым неизбежен. Это подтверждают такие мультимодальные модели, как GPT-4 и Gemini от Google DeepMind, способные решать как визуальные, так и лингвистические задачи. Исходя из этого можно предположить, что то же самое произойдет и с роботами — зачем обучать одного переворачивать блинчики, а другого открывать двери, если можно создать одну универсальную многозадачную модель? За примерами не нужно далеко ходить — несколько примеров работы в этой области появились в 2023 году.

В июне DeepMind выпустила Robocat обновление прошлогоднего Gato , который генерирует собственные данные методом проб и ошибок, чтобы научиться управлять множеством различных роботизированных рук вместо одной конкретной руки. Умных роботов в 2024 году станет еще больше В октябре компания выпустила еще одну универсальную модель для роботов под названием RT-X и большой новый набор обучающих данных общего назначения в сотрудничестве с 33 университетскими лабораториями. И хотя существует множество проблема в нехватке данных, ученые разрабатывают методы, которые позволяют роботам все лучше обучаться методом проб и ошибок. Словом, роботов особенно умных с каждым годом будет становиться все больше.

Искусственный интеллект Запада угрожает России

Искусственный интеллект (ИИ) стал одним из наиболее модных и реально востребованных решений в области высоких технологий. Сегодня его пытаются внедрять практически везде: в финансах, медицине, ИТ, при. Российские компании все чаще применяют искусственный интеллект. Нейросети опробовали в логистике, кибербезопасности и аналитике. Привлекли роботов даже к работе в металлургии. По словам экспертов, технологии позволяют снижать нагрузку на человека. Уже сейчас информационное агентство Bloomberg News создает примерно треть своего контента с помощью нейросети Cyborg, которая быстро обрабатывает отчеты и составляет новости. А вот статья The Guardian, также написанная искусственным интеллектом. Что самое главное, ей вскоре неизбежно начнут доверять. Возникнет суггестивный императив: «это искусственный интеллект, у него всё просчитано, продумано, а значит соответствует истине – она не допускает ошибок и просчетов, как люди». Искусственный интеллект (ИИ) — это область информатики, которая занимается созданием интеллектуальных машин, способных выполнять задачи, обычно выполняемые людьми, такие как зрительное восприятие, принятие решений, распознавание речи и языковой перевод. Artificial Intelligence News provides the latest AI news and trends. Explore industry research and reports from the frontline of AI technology news.

Столкновение западного и восточного искусственного интеллекта уже началось

Предложения по разделу присылайте на [email protected]. Тег: Искусственный интеллект. Новости и обзорные материалы о технологиях искусственного интеллекта: от умного дома до распознавания речи. Российская газета. По сути, он выполняет те же функции, что и Google search, только усовершенствованно. Несмотря на это, есть другие опасения, например, что искусственный интеллект сможет заменить человеку реальных друзей и вторых половинок. Новости из мира нейросетей, гайды, обзоры и руководства по использованию нейросетей в России. Искусственный интеллект (ИИ) — это область информатики, которая занимается созданием интеллектуальных машин, способных выполнять задачи, обычно выполняемые людьми, такие как зрительное восприятие, принятие решений, распознавание речи и языковой перевод. Мы собрали самые яркие и значимые события месяца в одном дайджесте. От разработки умных алгоритмов, которые предугадывают наши покупки, до революционных систем, способных разрабатывать новые лекарства — искусственный интеллект проникает в каждую сферу жизни.

Топ-10 событий 2023 года в области искусственного интеллекта и нейроинтерфейсов

Искусственный интеллект и сферы его применения. Новости разработки квантовых компьютеров. Исследования искусственных нейронных сетей. Технологии Big cial intelligence. Тамаш Деак Общество, 15:48. Что происходит с кожей после 35 лет и как ей помочь РБК и Вирсавия, 15:45. Объясняем, что значат новости. Вечерняя рассылка РБК. Более 1400 представителей IT-отрасли, в числе которых Илон Маск и Стив Возняк, подписали открытое письмо, призывающее на время остановить масштабные эксперименты с искусственным интеллектом и нейросетями. Более 350 исследователей и инженеров в этой области недавно выступили с предупреждением о том, что искусственный интеллект создает риски, сравнимые с последствиями пандемий и ядерной войны. Цикл создания нового лекарственного препарата может составлять до пяти лет. Но вот это моделирование разных молекул и прогнозирование свойств вещества исходя из устройства молекулы – отличная задача для искусственного интеллекта.

СМИ в соцсетях

Виктор Носко генеральный директор компании «Аватар Машина», создатель чат-бота-психолога « Сабина Ai », соавтор проекта FractalGPT — Думаю, что в больших языковых моделях в мировом масштабе наступила эпоха стагнации: теперь новые эмерджентные свойства не будут возникать с ростом числа параметров. А совершенствование свойств, которые уже проявились, замедлится. При этом новая нейросеть от Google — Gemini, анонсированная с помпой как конкурент GPT-4, не показала существенного превосходства над ней и не оправдала ожиданий пользователей. Ситуацию подпортил и их фейл с пиаром в виде смонтированного демонстрационного ролика. До сих пор российские учёные отставали от зарубежных примерно на один год по мощности моделей и на два года по уровню научных исследований. Однако в 2024-м этот разрыв может сократиться: главным драйвером здесь может стать Fusion Brain от «Сбера», развивающий идею MoE для мультимодальных решений и VisualQA. Ещё одним драйвером может стать разработка собственной модификации архитектуры «трансформер» — особенно если учесть, что за рубежом даже небольшие компании разрабатывают модификации моделей с механизмом внимания attention model.

Роман Душкин генеральный директор ООО «А-Я эксперт» , компании — разработчика систем искусственного интеллекта — LLM продолжат развиваться в сторону мультимодальных моделей и роста числа параметров. Но всё это лишь количественные показатели. Да, они будут расти. Но приведёт ли этот тренд к качественным прорывам? Я сомневаюсь. Моё мнение: большие языковые модели — это бездумные «обезьянки», которые просто достают из «мешков со словами» каждое следующее слово.

Они по своей сути такими и останутся, что бы мы с ними ни делали. Используемая сегодня архитектура нейросетей просто не позволит им совершить качественный скачок. Поэтому стоит ожидать концентрации усилий разработчиков на создании когнитивных архитектур, которые называют BICA biologically inspired cognitive architectures. Здесь могут появиться очень интересные решения. Такие модели способны конвергировать с архитектурами, основанными на других принципах. Сейчас есть все предпосылки для развития в этом направлении.

Развитие опенсорсных моделей и демократизация ИИ Что случилось за год Параллельно с закрытыми проприетарными моделями развились нейросети с открытым исходным кодом. Если в 2022 году анонс свободной языковой модели BLOOM BigScience large open-science open-access multilingual language model стал громким событием, то в 2023 году IT-комьюнити представило сотни опенсорсных нейронок. Начало этому процессу положила представленная в феврале 2023 года цукерберговская модель LLaMA , а затем её более продвинутый вариант LLaMA 2 , разработанный совместно с Microsoft. Нейросетка, представленная в типоразмерах на 7, 13, 33, 65 и 70 миллиардов параметров, по ряду показателей показала результаты, сопоставимые с GPT-3. Цукерберг решил сыграть против тренда на закрытость и объявил, что LLaMA будет доступна с рядом ограничений для научных организаций, которые его компания посчитает заслуживающими доверия. Но модель вскоре «утекла» в интернет , где её начали распространять и «допиливать» энтузиасты ИИ и свободного ПО.

Она стала основой для множества проектов, развивающих модель за счёт экспериментов с архитектурой, вариантами тонкой настройки и обучения. Следующий прорыв случился, когда учёные из Стэнфорда провели тонкую настройку модели и научили один из вариантов LLaMA следовать инструкциям пользователя, затратив на это всего лишь 600 долларов. Нейросеть получила название Alpaca. Сейчас таких проектов стало больше и не все они основаны на LLaMA. Вот некоторые из самых интересных опенсорсных моделей, которые появились в 2023 году: Dolly от компании Databricks, специализирующейся на разработках в области больших данных. Отечественная ruGPT-3.

Для неё опубликована лишь предобученная версия «претрейн» , поэтому для выполнения инструкций её нужно дообучать. Orca 2 от Microsoft.

Это означает тестирование возможностей их систем, оценку их потенциального риска и обнародование результатов этих оценок. Во-вторых, компании должны уделять первоочередное внимание безопасности своих систем, защищая свои модели от киберугроз и управляя рисками для национальной безопасности США, а также обмениваясь передовым опытом и необходимыми отраслевыми стандартами. В-третьих, компании обязаны завоевать доверие людей и предоставить пользователям возможность принимать обоснованные решения. Маркировка контента, который был изменен или создан искусственным интеллектом. Искоренение предрассудков и дискриминации, усиление защиты конфиденциальности и защита детей от вреда. Добровольные гарантии — это лишь ранний предварительный шаг, поскольку Вашингтон и правительства всего мира спешат создать правовые и нормативные рамки для развития искусственного интеллекта. Соглашения включают в себя тестирование продуктов на наличие угроз безопасности и использование водяных знаков, чтобы потребители могли распознавать материалы, созданные искусственным интеллектом. Объявление, сделанное 21 июля, отражает стремление администрации Байдена и законодателей срочно отреагировать на быстро развивающиеся технологии, даже несмотря на то, что законодатели изо всех сил пытаются регулировать социальные сети и другие технологии.

Белый дом не сообщил подробностей о предстоящем указе президента, который будет касаться более серьезной проблемы: как контролировать способность Китая и других конкурентов завладеть новыми программами искусственного интеллекта или компонентами, используемыми для их разработки. Это включает в себя новые ограничения на продвинутые полупроводники и ограничения на экспорт больших языковых моделей. Их трудно контролировать — большая часть программного обеспечения может поместиться в сжатом виде на флэш-накопителе. Распоряжение может вызвать большее сопротивление со стороны отрасли, чем добровольные обязательства, озвученные 21 июля. Они, по словам экспертов, уже нашли отражение в практике вовлеченных компаний. Обещания не будут ограничивать планы компаний, занимающихся искусственным интеллектом, и не мешать развитию их технологий. И как добровольные обязательства, они не будут обеспечиваться государственными регулирующими органами. В рамках гарантий компании согласились: тестировать безопасность своих продуктов ИИ, частично независимыми экспертами; осуществлять обмен информацией о своих продуктах с правительствами и другими сторонами, которые пытаются управлять рисками, связанными с технологией; обеспечить, чтобы потребители могли обнаруживать материалы, созданные ИИ, путем внедрения водяных знаков или других средств идентификации сгенерированного контента; публично сообщать о возможностях и ограничениях своих систем на регулярной основе, включая риски безопасности и доказательства предвзятости; развернуть передовые инструменты искусственного интеллекта для решения самых больших проблем общества, таких как лечение рака и борьба с изменением климата; проводить исследования рисков предвзятости, дискриминации и вторжения в частную жизнь из-за распространения инструментов ИИ. В заявлении, объявляющем о соглашениях, администрация Байдена заявила, что компании должны гарантировать, что «инновации не будут осуществляться за счет прав и безопасности американцев». Для компаний стандарты, описанные 21 июля, служат двум целям: попытка предотвратить или сформулировать законодательные и нормативные шаги с помощью самоконтроля; как сигнал о том, что они обдумывают эту новую технологию вдумчиво и активно.

Но правила, которые они согласовали, в значительной степени являются наименьшим общим знаменателем и могут интерпретироваться каждой компанией по-разному. Например, фирмы привержены строгой кибербезопасности данных и кода, используемых для создания «языковых моделей», на основе которых разрабатываются генеративные программы ИИ. Но нет никакой конкретики в отношении того, что это означает — и компании в любом случае будут заинтересованы в защите своей интеллектуальной собственности. И даже самые осторожные компании уязвимы. Microsoft, одна из фирм, присутствовавших на мероприятии в Белом доме вместе с Байденом, накануне встречи в Белом доме изо всех сил пыталась противостоять организованному китайским правительством взлому личных электронных писем американских чиновников, имевших дело с Китаем. Теперь выясняется, что Китай каким-то образом получил «закрытый ключ», принадлежащий Microsoft, который является ключом к аутентификации электронной почты — одной из наиболее тщательно охраняемых частей кода компании. В результате соглашение вряд ли замедлит усилия по принятию законодательства и регулированию новых технологий. Пол Барретт, заместитель директора Центра бизнеса и прав человека Стерна в Нью-Йоркском университете, сказал, что необходимо сделать больше для защиты от опасностей, которые искусственный интеллект представляет для общества. Европейские регулирующие органы готовы принять законы об искусственном интеллекте, что побудило многие компании поощрять законодательство США. Несколько законодателей в Конгрессе США представили законопроекты, которые включают лицензирование компаний ИИ для выпуска своих технологий, создание федерального агентства для надзора за отраслью и требования к конфиденциальности данных.

Но члены Конгресса далеки от согласия в отношении правил и спешат изучить технологию. Законодатели пытаются решить, как справиться с распространением технологий искусственного интеллекта, причем некоторые из них сосредоточены на рисках для потребителей, в то время как другие остро обеспокоены отставанием от противников, особенно от Китая, в гонке за доминирование в этой области. Специальный комитет Палаты представителей по стратегической конкуренции с Китаем в июле 2023 года разослал двухпартийные письма американским венчурным компаниям с требованием рассчитаться за инвестиции, которые они вложили в китайские компании, занимающиеся искусственным интеллектом и полупроводниками. Эти письма приходят после нескольких месяцев, в течение которых различные комиссии Палаты представителей и Сената опрашивали самых влиятельных предпринимателей и критиков индустрии ИИ, чтобы определить, какие законодательные ограничения и стимулы следует изучить Конгрессу. Многие из этих свидетелей, в том числе Сэм Альтман из стартапа OpenAI в Сан-Франциско, умоляли законодателей регулировать индустрию ИИ, указывая на то, что новая технология может нанести неправомерный вред. Но это регулирование медленно внедряется в Конгрессе, где многие законодатели все еще пытаются понять, что именно представляет собой технология ИИ. В попытке улучшить понимание законодателей сенатор Чак Шумер, демократ от Нью-Йорка и лидер большинства, начал летом 2023 года серию слушаний для законодателей, чтобы услышать от государственных чиновников и экспертов о достоинствах и опасностях искусственного интеллекта в ряде областей. Шумер также подготовил поправку к сенатской версии законопроекта о разрешении на оборону в 2023 году, чтобы: стимулировать сотрудников Пентагона сообщать о потенциальных проблемах с инструментами ИИ; заказать отчет Пентагона о том, как улучшить обмен данными ИИ; улучшить отчётность об ИИ в индустрии финансовых услуг. Расследование и регулирование 13 июля 2023 г. Федеральная торговая комиссия США FTC начала расследование в отношении OpenAI, стартапа искусственного интеллекта, создающего ChatGPT, на предмет того, наносил ли чат-бот вред потребителям путем сбора данных и публикации ложной информации о физических лицах.

В 20-страничном письме агентство сообщило, что также изучает методы обеспечения безопасности OpenAI. В своем письме FTC задала OpenAI десятки вопросов, в том числе о том, как стартап обучает свои модели ИИ и обрабатывает персональные данные, и заявила, что компания должна предоставить агентству документы и подробности. FTC изучает вопрос о том, «причастна ли OpenAI к недобросовестным или вводящим в заблуждение методам обеспечения конфиденциальности или безопасности данных или к недобросовестным или вводящим в заблуждение методам, связанным с рисками причинения вреда потребителям», говорится в письме. Расследование FTC представляет собой первую серьезную регулятивную угрозу США для OpenAI, одной из самых известных компаний в области искусственного интеллекта, и сигнализирует о том, что технология может подвергаться все более тщательному изучению, поскольку люди, предприятия и правительства используют больше продуктов на основе искусственного интеллекта. Быстро развивающаяся технология вызвала тревогу, поскольку чат-боты могут генерировать ответы в ответ на запросы, потенциально могут заменить людей на их работе и распространять дезинформацию. Сэм Альтман, руководитель OpenAI, считает, что быстрорастущую индустрию искусственного интеллекта необходимо регулировать. В мае 2023 ujlf он свидетельствовал в Конгрессе, призывая принять закон об искусственном интеллекте, и посетил сотни законодателей, стремясь определить политическую повестку дня для этой технологии. OpenAI уже подвергся давлению регулирующих органов на международном уровне. В марте 2023 года орган по защите данных Италии запретил ChatGPT, заявив, что OpenAI незаконно собирает личные данные пользователей и не имеет системы проверки возраста, чтобы предотвратить доступ несовершеннолетних к незаконным материалам. OpenAI восстановила доступ к системе в апреле 2023 года, заявив, что внесла изменения, о которых просили итальянские власти.

Лина Хан, председатель FTC, заявила, что технологические компании должны регулироваться, пока технологии только зарождаются, а не только тогда, когда они становятся зрелыми. В прошлом агентство обычно начинало расследования после серьезных публичных ошибок со стороны компании, таких как открытие расследования политики конфиденциальности Meta после сообщений о том, что оно передало пользовательские данные политической консалтинговой фирме Cambridge Analytica в 2018 году. Г-жа Хан ранее заявляла, что индустрия ИИ нуждается в тщательном анализе. Нет никаких проверок того, какой тип данных вводится в эти компании». Она добавила, что поступали сообщения о появлении «конфиденциальной информации» людей. Расследование может заставить OpenAI раскрыть свои методы создания ChatGPT и источники данных, которые он использует для создания своих систем искусственного интеллекта. Чат-боты, которые также внедряются такими компаниями, как Google и Microsoft, представляют собой серьезный сдвиг в способах создания и использования компьютерного программного обеспечения. Они готовы заново изобрести поисковые системы в Интернете, такие как Google Search и Bing, говорящих цифровых помощников, таких как Alexa и Siri, и почтовые службы, такие как Gmail и Outlook. Когда OpenAI выпустила ChatGPT в ноябре 2022 года, она мгновенно захватила воображение публики своей способностью отвечать на вопросы, писать стихи и рифмовать практически на любую тему. Но технология также может смешивать факты с вымыслом и даже создавать информацию — явление, которое учёные называют «галлюцинациями».

Это та же технология, которая осуществляет перевод между французским и английским языками в таких сервисах, как Google Translate, и идентифицирует пешеходов, когда беспилотные автомобили перемещаются по городским улицам. Нейронная сеть обучается навыкам, анализируя данные. Например, определяя закономерности на тысячах фотографий кошек, он может научиться распознавать кошку. Исследователи из таких лабораторий, как OpenAI, разработали нейронные сети, которые анализируют огромное количество цифрового текста, включая статьи в Википедии, книги, новости и журналы онлайн-чатов. Эти системы, известные как большие языковые модели, научились генерировать текст самостоятельно, но могут повторять ошибочную информацию или комбинировать факты таким образом, что получается неточная информация. В марте 2023 года Центр искусственного интеллекта и цифровой политики, правозащитная группа, выступающая за этичное использование технологий, обратилась к FTC с просьбой заблокировать OpenAI от выпуска новых коммерческих версий ChatGPT, сославшись на опасения, связанные с предвзятостью, дезинформацией и безопасностью. Организация обновила жалобу в июле, описав дополнительные способы, которыми чат-бот может причинить вред, на что, по ее словам, также указал OpenAI. Когда сотрудники и другие тестировщики используют систему, компания просит их оценить полезность и правдивость ее ответов. Затем с помощью метода, называемого обучением с подкреплением, он использует эти рейтинги, чтобы более точно определить, что чат-бот будет делать, а что нет. Расследование FTC в отношении OpenAI может занять много месяцев, и неясно, приведет ли оно к каким-либо действиям со стороны агентства.

Такие расследования являются частными и часто включают показания высших руководителей корпораций. Устранение потенциальных рисков, связанных с искусственным интеллектом Картер С. Прайс содиректор Центра масштабируемых вычислений и анализа RAND и Мишель Вудс заместитель директора отдела исследований национальной безопасности RAND написали 13 июля 2023 года в комментариях на сайте корпорации, что хотя были предприняты попытки перечислить риски ИИ, простая категоризация могла бы разделить их на текущие риски, которые будут усугубляться ИИ, такие как террористы, использующие ИИ для разработки более смертоносного биологического оружия, и новые риски, специфичные для ИИ, такие как ИИ, выбирающий уничтожение человечества в качестве оптимальное решение проблемы изменения климата. Подходы к управлению рисками, используемые для борьбы с текущими угрозами, скорее всего, потребуется пересмотреть, чтобы учесть непредвиденные возможности, которые может предоставить ИИ. Хотя существуют хорошо задокументированные риски, связанные с предвзятостью современного ИИ, которые необходимо устранить, новые риски, связанные с ИИ, в настоящее время слишком плохо определены, чтобы их можно было полностью устранить с помощью политики, поэтому исследователи и разработчики должны взять на себя инициативу. Однако как для существующих, так и для новых случаев можно предпринять шаги для подготовки к этим рискам. Подходы к управлению рисками, используемые в страховании, финансах и других сферах бизнеса, обычно фокусируются на риске как продукте вероятности того, что что-то произойдет, и последствий этого события, измеряемых в долларах. Это хорошо работает в тех областях, где результаты можно легко преобразовать в доллары, есть результаты, которые легко поддаются количественной оценке, а наборы данных достаточно полны, чтобы производить надежные оценки вероятностей. К сожалению, ни один из этих критериев не относится к рискам ИИ. Вместо того, чтобы думать о рисках как о вероятности и последствиях, в условиях, когда количественная оценка затруднена, риски можно рассматривать как комбинации угроз, уязвимостей и последствий.

Такой подход используется в США Федеральным агентством по чрезвычайным ситуациям для подготовки к стихийным бедствиям, Агентством кибербезопасности и безопасности инфраструктуры при оценке способов защиты критической инфраструктуры, а также Министерством обороны для снижения угроз. Уникальные риски ИИ сегодня в значительной степени не учитываются из-за их новизны, но ситуация меняется. В контексте ИИ согласование — это степень, в которой действия системы ИИ соответствуют намерениям дизайнера. Этот акцент на исследованиях мировоззрения для сверхразума — отличное начало, но кажется слишком узким, и его можно было бы расширить.

Также сообщается, что Альтман провёл ряд переговоров о потенциальных инвестициях с ближневосточными суверенными фондами благосостояния, в том числе из Объединённых Арабских Эмиратов. Несмотря на состоявшиеся встречи, Альтман однозначно дал понять, что считает необходимым совместно работать с правительством США над разработкой, согласованием, сроками и структурой проекта. По словам источников, он уже обсуждал свой проект с министром торговли Джиной Раймондо Gina Raimondo и другими чиновниками, а представители министерства торговли провели ряд совещаний относительно планов OpenAI по привлечению инвесторов с Ближнего Востока. Источник изображения: OpenAI «OpenAI провела продуктивные дискуссии о расширении глобальной инфраструктуры и цепочек поставок чипов, энергетики и центров обработки данных, которые имеют решающее значение для искусственного интеллекта и других отраслей, которые на них полагаются, — говорится в заявлении OpenAI. По словам некоторых источников, Альтман также рассматривает возможность создания новой компании, отдельной от OpenAI, что может вызвать обеспокоенность антимонопольного регулятора. Дело в том, что законы США запрещают одному и тому же лицу занимать должность руководителя в двух конкурирующих компаниях так называемое взаимосвязанное управление.

Это одна из причин, почему плану Альтмана необходимо однозначное одобрение правительства США, прежде чем двигаться дальше. Источник изображения: Pixabay Пытаясь привлечь инвестиции от таких организаций, как Фонд благосостояния Объединённых Арабских Эмиратов, Альтман может попасть под пристальное внимание Комитета по иностранным инвестициям США, который уделяет всё более пристальное внимание связям таких фондов с Китаем. Законодатели уже выразили опасения по поводу потенциальных инвестиций от ИИ-компании G42 из Абу-Даби из-за опасений по поводу её сотрудничества с китайским правительством. G42 после этого заявила о сокращении своего присутствия в Китае. Амбициозная кампания Альтмана по сбору средств рискует спровоцировать проверку национальной безопасности иностранных инвестиций комитетом под председательством Министерства финансов и может столкнуться с контролем Министерства торговли над поставками чипов на Ближний Восток. Правительственные чиновники США опасаются, что такие страны, как Саудовская Аравия и Объединённые Арабские Эмираты, могут выступить в роли посредников, обеспечивающих доступ к попадающим под санкции чипам для китайских компаний. Согласно новым правилам, продажа некоторых передовых микросхем и полупроводникового оборудования предприятиям в этих странах потребует лицензии правительства США. Проект Альтмана может осложнить деятельность Министерства торговли по субсидированию производства полупроводников в соответствии с «Законом о чипах» 2022 года. На данный момент известно лишь о двух небольших грантах, но в ближайшие недели многомиллиардное финансирование должно быть направлено на поддержку передовых производств по производству микросхем, таких как сейчас строят TSMC, Samsung и Intel. Пока неясно, как инициатива Альтмана коррелирует с этим законом.

Источник изображения: unsplash. Он изучает рынок и источники финансирования, пытаясь получить обратную связь чтобы определить, следует ли стремиться к глобальному увеличению мощностей полупроводниковой промышленности или сосредоточиться на менее масштабных усилиях по созданию чипов и программного обеспечения более низкого уровня. Альтман также рассматривает возможность максимального использования зелёной энергии в рамках своего проекта. По мнению экспертов, даже в случае успеха это существенно увеличит потенциальные затраты и приведёт к заметному повышению стоимости готовой продукции. Решение о необходимости реализации новой инициативы было принято из-за того, что передовые технологии, в том числе связанные с нейросетями, часто используют не только для защиты от киберпреступников, но и для совершения противоправных действий. Источник изображения: Pixabay В числе прочего Google намерена представить новый продукт с открытым исходным кодом, который построен на базе нейросетей и использует идентификацию типов файлов для обнаружения вредоносного программного обеспечения. Этот инструмент уже используется для повышения уровня безопасности в Gmail и Google Drive и будет доступен бесплатно. В рамках Мюнхенской конференции по кибербезопасности, которая проходит на этой неделе в Германии, Google также опубликует официальный документ, в котором будет подробно изложено, как IT-гигант использует искусственный интеллект для обеспечения кибербезопасности. В дополнение к этому в документе содержится призыв к проведению исследований в сфере ИИ и разработке мер по обеспечению автономной киберзащиты. Вместе с этим Google объявила о дополнительных инвестициях в исследовательские гранты и партнёрскую деятельность для продвижения инициатив в области кибербезопасности с использованием ИИ-технологий.

Поскольку хакеры уже используют алгоритмы на основе ИИ для проведения кибератак, в Google уверены, что необходимо усилить действия по разработке инструментов противодействия злоумышленникам.

Собственные базовые модели генеративного искусственного интеллекта в мире разрабатывают около десяти стран, в том числе Россия, при этом наша страна занимает 7-е место в мире по уровню поддержки государством сферы разработки искусственного интеллекта. Подобный фокус не случаен — внедрение искусственного интеллекта будет иметь гораздо более широкие последствия для страны, чем непосредственно экономический эффект, в частности развитие искусственного интеллекта положительно повлияет на качество и продолжительность жизни, повысит качество образования, создаст новые рабочие места.

Это сократит временные затраты и позволит сотрудникам сосредоточиться на более творческих задачах. Для России такие перспективы скорее привлекательны: с учетом прогнозируемого к 2030 г. Максим Болотских.

Как применяется искусственный интеллект в отечественном бизнесе

Artificial Intelligence News provides the latest AI news and trends. Explore industry research and reports from the frontline of AI technology news. Искусственный интеллект сегодня — В России создали аналог Tinder с ИИ. Ответственный мэтч: в России разработали аналог Tinder с ИИ. Раскрыто поведение искусственного интеллекта в условиях войны Россия Общество 7 февраля в 02:54 Раскрыто поведение искусственного интеллекта в условиях войны. Искусственный интеллект (ИИ). Читайте последние новости на тему в ленте новостей на сайте РИА Новости. В Петербурге и Липецке появятся трамваи с искусственным интеллектом. Матвиенко уверена, что ИИ не сможет заменить депутатов и сенаторов.

Искусственный интеллект лишает американцев работы и кредитов

Но еще более проблемным является тот факт, что сейчас несколько стран в мире совершают большой забег в области искусственного интеллекта, и все понимают, что если будет создана технология так называемого сильного ИИ, то это может стать большим достижением. Вообще-то, опасно заниматься такими разработками в спешке, в гонке, когда явно меньше внимания, чем нужно, уделяется вопросам безопасности, надежности и прочее. Технологии такого плана, которые потенциально несут большие возможности и, с другой стороны, большие риски для всего человечества, должны делаться в хорошем международном сотрудничестве, обстоятельно, с привлечением лучших людей. А не в условиях даже не то чтобы спешки и гонки, а объективно и буквально гонки вооружений». Авторы обращения описывают риски пусть не подробно, но красочно.

Должны ли мы автоматизировать все профессии, даже те, которые приносят удовлетворение? Нужно ли создавать нечеловеческие умы, которые могут догнать, перегнать и в итоге заменить нас? Стоит ли рисковать потерей контроля над человеческой цивилизацией?

Особенно эта зависимость нового типа касается молодежи, подростков и детей, и провоцирует СДВГ синдром дефицита внимания и гиперактивности.

В перспективе нескольких лет, когда технологии web 3. Объективные данные и факты при формировании общественного мнения окончательно уступят место эмоциональным провокациям и заранее сформированным суждениям в изолированной от опровержения «эхокамере», как сегодня это происходит с безжалостным манипулированием общественным мнением практически в любой соцсети. На смену правде уже давно пришла «постправда». А лайки, ретвиты и комментарии перестали быть критерием объективности по мере давления на индивидуальное сознание практически по любому вопросу всевозможных интеллектуальных центров со щупальцами в виде «фабрик троллей», «ботоферм» и сеток анонимных телеграм-каналов.

Авторы концепции WEB 3. Чтобы усомниться в этом достаточно вспомнить выражение: «кто платит, тот и заказывает музыку». Глобальный «бигтех», окутавший мир паутиной капитализма «платформ», может предоставить любую площадку для контента, для монетизации, рекламы и извлечения данных, но всегда будет держать под контролем политическую и общественную активность. Вспомним, как один из самых богатых людей планеты Илон Маск купил весной 2022 года социальную сеть Twitter, потому что «посчитал важным для цивилизации существование одной цифровой платформы, где различные мнения могут обсуждаться в здоровой атмосфере».

Как за год до этого ряд IT-корпораций, очевидно сговорившись, приняли беспрецедентное решение и буквально выкинули из своих социальных сетей экс-президента США Дональда Трампа.

В прошлом году министерство закупило одно изделие с искусственным интеллектом. Результаты работы данного изделия доступны во всех медицинских организациях области с цифровыми маммографами, — отметили в ведомстве. Ранее Минздрав России сообщил, что в 2023 году регионы приобрели 106 медизделий с ИИ на 450 млн рублей.

Например, получив гарантированный уровень благополучия еду, жилье, одежду и массу свободного времени, люди могут пуститься во все тяжкие: вспомнить старые обиды, придумать новые, попытаться восстановить "историческую справедливость". Что, в конце концов, приведет к войнам, в которых человечество уничтожит само себя, не дожидаясь "войны с роботами", о которой так любят писать фантасты. Но этот сценарий эксперт считает маловероятным. Кадр из фильма "Безумный Макс.

Дорога ярости". И это тоже про будущее… — Если мы посмотрим на популяцию людей, то не всё так катастрофично. Склонностью к деструктивным мыслям обладает небольшой процент людей. Если с ними работать, можно такой катастрофы не допустить, — отмечает она.

Эксперт подчеркивает: чтобы "золотой век" не обернулся катастрофой, людей, получивших массу свободного времени, надо чем-то "занять". Так уж устроен наш мозг, который не может находится в состоянии покоя. Если он ничем не занят, то начинает искать проблемы вокруг себя. Также не стоит забывать и о базовой программе исследовательского поведения, заложенной в человеке.

Если мы ничем не занимаемся, то мозг начинает запускать программы тревожности, паники, эмоциональной взбудораженности. И к чему это может привести, предсказать сложно. Точно — к криминализации общества и увеличению степени неопределенности в поведении людей, — признает Татьяна. Альтернативный взгляд на роботизацию и ИИ в будущем.

Кадр из сериала "Кибердеревня" Сколько будет стоить человеческая жизнь?

Похожие новости:

Оцените статью
Добавить комментарий