Комментировать

OpenAI запрещает сотрудникам рассказывать о связанных с ИИ рисках

Группа информаторов из OpenAI направила в Комиссию по ценным бумагам и биржам США (SEC) жалобу о том, что компания запрещает своим сотрудникам рассказывать о рисках, связанных с искусственным интеллектом. Ведомство призывают провести расследование.

Об этом сообщает The Washington Post со ссылкой на письмо в SEC. Согласно документу, OpenAI заставила работников подписать соглашения о сотрудничестве с отказом от выходного пособия, а также необходимости получить разрешение от работодателя на раскрытие информации федеральным органам.

По словам одного из информаторов, в трудовом договоре содержатся строки о том, что компания не хочет, чтобы ее сотрудники разговаривали с федеральными регуляторами.

«Я не думаю, что компании, занимающиеся ИИ, способны создавать безопасные и отвечающие общественным интересам технологии, если они ограждают себя от проверок и инакомыслия», — добавил анонимный сотрудник.

Адвокат информаторов Стивен Кон подчеркнул, что подобные соглашения угрожают сотрудникам уголовным преследованием, если они сообщат о каких-либо нарушениях властям.

По словам юриста, это противоречит федеральным законам. Кроме того, в соглашении нет исключения для раскрытия информации о нарушениях закона, что также является нарушением норм SEC.

Пресс-секретарь OpenAI Ханна Вон в ответ на обвинения заявила, что политика компании защищает права работников на раскрытие информации, а разработчик ChatGPT приветствует дискуссии о влиянии технологий на человечество.

«Мы считаем, что дебаты [о влиянии ИИ] имеют важное значение, и уже внесли существенные изменения в наш процесс увольнения, исключив из него пункты о неразглашении», — рассказала руководительница пресс-службы компании.

В мае стало известно, что OpenAI распустила команду по работе с долгосрочными рисками ИИ. Группа, которая должна была защитить человечество от искусственного интеллекта, проработала меньше года.

Ян Лейке, один из бывших руководителей отдела по работе с рисками, заявлял, что безопасность не входила в число приоритетов разработчика генеративного ИИ.

Источник: RB.RU

#искусственный интеллект
Комментировать

Комментарии

Комментировать

Вам может быть интересно

33
#цифровизация

«Мозги» российской нейросети и триллионы рублей от ИИ. О чем говорил Мишустин в Алма-Ате

Председатель правительства РФ рассказал об экономическом эффекте от внедрения технологий ИИ в России, отличии российской нейросети от западной ChatGPT и российских предложениях для зарубежных партнеров
32
#Китай

«ИИ в коробке»: в Китае набирают популярность системы для локального запуска моделей

Китайские компании, обеспокоенные сохранностью своих данных, отдают предпочтение «ИИ в коробке». Такие системы позволяют запускать генеративные модели в локальном или частном облаке, на которые приходится около половины рынка облачных сервисов в стране
28
#искусственный интеллект

«Сбер» и СПбГУ займутся подготовкой специалистов в области искусственного интеллекта и науки о данных

На новой образовательной программе магистратуры студенты будут изучать прикладные задачи машинного обучения, в том числе, связанные с большими языковыми моделями и их применением в бизнес-задачах