Сооснователь и бывший главный научный сотрудник OpenAI Илья Суцкевер привлек $1 млрд инвестиций в свой стартап Safe Superintelligence (SSI). Он собирается создать безопасную систему искусственного интеллекта, которая намного превосходит человеческие возможности.
Сейчас в SSI работают 10 человек в США и Израиле. Кроме Суцкевера проектом занимаются бывший глава отдела ИИ-разработок в Apple Дэниел Гросс на должности ведущего научного специалиста и еще один экс-сотрудник OpenAI Дэниел Леви, ставший генеральным директором. Полученные средства планируется потратить на приобретение вычислительных мощностей и наем специалистов.
"Для нас важно, чтобы нас окружали инвесторы, которые понимают, уважают и поддерживают нашу миссию, которая заключается в том, чтобы сделать большой шаг в сторону безопасного суперинтеллекта и, в частности, потратить пару лет на исследования и разработки нашего продукта, прежде чем вывести его на рынок", – заявил Гросс.
Безопасность ИИ, которая заключается в предотвращении причинения им вреда, является актуальной темой на фоне опасений, что небезопасный ИИ может действовать против интересов человечества или даже привести к вымиранию людей.
Горячие темы