Ведущий исследователь в области безопасности искусственного интеллекта Мринанк Шарма покинул компанию Anthropic, предостерегая о глобальных угрозах.
Как сообщает «KP.ru», Шарма, возглавлявший исследовательское подразделение по безопасности в Anthropic, заявил о своем уходе в открытом письме, опубликованном в соцсети Х. Он выразил серьезные опасения по поводу состояния мира, отметив, что человечество сталкивается с множеством взаимосвязанных кризисов. «Мир в опасности. Это не только связано с искусственным интеллектом или биологическим оружием, но и с целым рядом других угроз», — подчеркнул он.
Шарма отметил, что его решение покинуть компанию было вызвано необходимостью двигаться дальше и заниматься более важными вопросами. Он также упомянул, что планирует заняться поэзией и уехать в Великобританию, чтобы «стать невидимым». В своем письме он указал на важность обсуждения этических вопросов, связанных с развитием технологий.
В то же время экс-сотрудница OpenAI Зои Хитциг, также выразившая свои опасения, покинула компанию в тот же день, когда OpenAI начала тестирование рекламы в ChatGPT. В своей статье для New York Times она отметила, что реклама, основанная на личных данных пользователей, может привести к манипуляциям и нарушению приватности. Хитциг подчеркнула, что пользователи делятся своими страхами и переживаниями, полагая, что их разговоры остаются конфиденциальными.
Эти события подчеркивают растущие опасения среди исследователей искусственного интеллекта о том, как технологии могут повлиять на общество. В условиях стремительного развития ИИ важно учитывать этические аспекты и потенциальные риски, чтобы избежать негативных последствий.
Ситуация с уходом Шармы и Хитциг поднимает важные вопросы о будущем искусственного интеллекта и его влиянии на общество. Важно, чтобы разработчики и исследователи продолжали обсуждать этические аспекты и обеспечивали безопасность технологий, чтобы предотвратить возможные угрозы.

