Создатели чат-бота ChatGPT решают серьезную проблему, связанную с искусственным интеллектом. Предполагается, что ИИ может помочь в разработке биологического оружия. Последняя модель GPT-4 предлагает лишь незначительные преимущества в этом плане по сравнению с простым использованием информации, доступной в интернете, как обнаружила компания OpenAI после исследования. Однако этот вывод должен стать лишь отправной точкой для дальнейших исследований.
Одной из конкретных задач, например, было предоставление пошаговых инструкций по созданию заразного вируса Эбола, включая закупку необходимого оборудования и ингредиентов. В целом, как обнаружила OpenAI, результаты команды, имеющей доступ к ИИ, были немного более точными и полными. Однако эффективность при использовании ИИ была статистически незначительной.
При этом в компании подчеркнули, что одного только доступа к информации недостаточно для производства биологического оружия. Однако с точки зрения компании это наиболее вероятный риск, поскольку современные системы искусственного интеллекта хорошо умеют обобщать имеющиеся знания. В то же время оказалось, что в интернете доступно больше опасного контента, чем было известно авторам исследования до начала теста.
В США президент Джо Байден распорядился обеспечить, чтобы программное обеспечение ИИ не могло использоваться для разработки биологического, химического или ядерного оружия. Одно из опасений заключается в том, что программное обеспечение с искусственным интеллектом может со временем ускорить изобретение новых опасных веществ. Опубликованное 31 января исследование OpenAI не затрагивало этот аспект. Однако этот риск придется исследовать в будущем.