Миссия Anthropic — создавать надежные, интерпретируемые и управляемые системы искусственного интеллекта. Мы хотим, чтобы ИИ был безопасным и полезным для наших пользователей и общества в целом. Наша команда — это быстрорастущая группа преданных своему делу исследователей, инженеров, экспертов по политике и бизнес-лидеров, которые работают вместе над созданием полезных систем ИИ.
Мы ищем технического исследователя киберугроз для присоединения к нашей команде по разведке угроз. В этой роли вы будете отвечать за обнаружение, расследование и пресечение злоупотреблений системами ИИ Anthropic в злонамеренных кибероперациях.
Вы будете работать на стыке безопасности ИИ и кибербезопасности, проводя тщательные расследования потенциальных случаев злоупотребления, разрабатывая новые методы обнаружения и создавая надежные защиты от возникающих киберугроз в быстро меняющемся ландшафте рисков, связанных с ИИ. Ваша работа будет напрямую защищать более широкую экосистему от сложных злоумышленников, которые стремятся использовать технологии ИИ во вред.
Важный контекст: на этой должности вы можете столкнуться с откровенным контентом, охватывающим различные темы, включая сексуального, насильственного или психологически тревожного характера. Эта роль может требовать реагирования на эскалации в выходные и праздничные дни.
Отсутствует. Заявки рассматриваются по мере поступления.
Требования к образованию: Мы требуем как минимум степень бакалавра в соответствующей области или эквивалентный опыт. Политика гибридной работы по местоположению: В настоящее время мы ожидаем, что весь персонал будет находиться в одном из наших офисов не менее 25% времени. Однако некоторые роли могут требовать большего времени в офисе.
Спонсорство визы: Мы спонсируем визы! Однако мы не всегда можем успешно спонсировать визу для каждой роли и каждого кандидата. Но если мы сделаем вам предложение, мы приложим все разумные усилия для получения визы и сотрудничаем с иммиграционным юристом для помощи в этом.
Мы призываем вас подавать заявку, даже если вы не уверены, что соответствуете всем требованиям. Не все сильные кандидаты соответствуют каждому из перечисленных требований. Исследования показывают, что люди из недостаточно представленных групп чаще испытывают синдром самозванца и сомневаются в силе своей кандидатуры, поэтому мы настоятельно рекомендуем не исключать себя преждевременно и подавать заявку, если вас интересует эта работа. Мы считаем, что системы ИИ, подобные тем, что мы создаем, имеют огромные социальные и этические последствия. Это делает представительство еще более важным, и мы стремимся включать разнообразные точки зрения в нашу команду.
Ваша безопасность для нас важна. Чтобы защитить себя от возможных мошенничеств, помните, что рекрутеры Anthropic связываются с вами только с адресов электронной почты @anthropic.com. В некоторых случаях мы сотрудничаем с проверенными рекрутинговыми агентствами, которые представляются как работающие от имени Anthropic. Будьте осторожны с письмами с других доменов. Законные рекрутеры Anthropic никогда не будут просить деньги, сборы или банковскую информацию до вашего первого рабочего дня. Если вы сомневаетесь в подлинности сообщения, не переходите по ссылкам — посетите anthropic.com/careers напрямую для подтверждения открытых вакансий.
Мы считаем, что исследования ИИ с наибольшим воздействием — это большие научные проекты. В Anthropic мы работаем как единая сплоченная команда над несколькими крупномасштабными исследовательскими инициативами. Мы ценим влияние — продвижение наших долгосрочных целей по созданию управляемого, надежного ИИ — больше, чем работу над мелкими и более специфическими задачами. Мы рассматриваем исследования ИИ как эмпирическую науку, которая имеет столько общего с физикой и биологией, сколько и с традиционными направлениями компьютерных наук. Мы — чрезвычайно коллективная группа и регулярно проводим исследовательские обсуждения, чтобы гарантировать, что занимаемся наиболее значимой работой в любой момент времени. Поэтому мы очень ценим коммуникативные навыки.
Самый простой способ понять наши исследовательские направления — прочитать наши последние исследования. Эти исследования продолжают многие направления, над которыми работала наша команда до Anthropic, включая: GPT-3, интерпретируемость на основе цепей, мультимодальные нейроны, законы масштабирования, ИИ и вычисления, конкретные проблемы безопасности ИИ и обучение на основе человеческих предпочтений.
Anthropic — это корпорация общественной пользы с головным офисом в Сан-Франциско. Мы предлагаем конкурентоспособную оплату и льготы, опциональное сопоставление пожертвований в акции, щедрый отпуск и декретный отпуск, гибкий график работы и прекрасное офисное пространство для совместной работы с коллегами.
Руководство по использованию ИИ кандидатами: Узнайте о нашей политике использования ИИ в процессе подачи заявок.