Миссия Anthropic — создавать надежные, интерпретируемые и управляемые системы искусственного интеллекта. Мы хотим, чтобы ИИ был безопасным и полезным для наших пользователей и общества в целом. Наша команда — это быстрорастущая группа преданных своему делу исследователей, инженеров, экспертов по политике и бизнес-лидеров, которые работают вместе над созданием полезных систем ИИ.
Мы ищем исследователей уязвимостей, которые помогут снизить риски, связанные с созданием систем ИИ. Один из таких рисков — возможность того, что большие языковые модели (LLM) позволят злоумышленникам причинять вред, автоматизируя атаки, которые сегодня выполняются группами киберпреступников, а в будущем могут легко осуществляться людьми, злоупотребляющими LLM. Мы нанимаем специалистов по безопасности с опытом эксплуатации и устранения уязвимостей, которые заинтересованы в понимании того, как LLM могут причинять вред в будущем, чтобы мы могли лучше подготовиться к этому будущему и снизить эти риски до их возникновения.
Требования к образованию: Мы требуем как минимум степень бакалавра в смежной области или эквивалентный опыт. Политика гибридной работы по местоположению: В настоящее время мы ожидаем, что весь персонал будет находиться в одном из наших офисов не менее 25% времени. Однако некоторые роли могут требовать большего времени в офисе.
Спонсорство визы: Мы спонсируем визы! Однако мы не всегда можем успешно спонсировать визы для каждой роли и каждого кандидата. Но если мы сделаем вам предложение, мы приложим все разумные усилия, чтобы получить для вас визу, и у нас есть иммиграционный юрист, который помогает в этом.
Мы считаем, что исследования ИИ с наибольшим воздействием — это большие научные проекты. В Anthropic мы работаем как единая сплоченная команда над всего несколькими крупномасштабными исследовательскими инициативами. И мы ценим влияние — продвижение наших долгосрочных целей по созданию управляемого, надежного ИИ — вместо работы над более мелкими и специфическими задачами.