#стэнфорд
2 публикации
Что случилось
Исследователи из Стэнфорда (признан нежелательным в РФ) и Института Arc провели эксперимент: они загрузили в нейросеть последовательность ДНК и попросили её придумать новые вирусы. Модель сгенерировала сотни вариантов. 16 из них оказались жизнеспособными
Главная неожиданность
Один из сгенерированных вирусов использовал белок для упаковки ДНК, которого нет ни в одном известном организме на Земле. Эволюция до такого ещё не дошла, а ИИ придумал
Что сделали дальше
Учёные синтезировали вирусы в лаборатории, вырастили их и протестировали на кишечной палочке. Все 16 бактериофагов оказались живыми и заразными. Несколько из них даже превзошли исходный вирус по скорости роста
Почему это важно
Нейросеть не просто скопировала существующие механизмы, а изобрела принципиально новый элемент биологической системы. Это значит, что ИИ способен создавать то, до чего природа не додумалась за миллиарды лет эволюции
Мнение
Учёные напустили ИИ на генетику, а он выдал им чужих. Пока они тестируют вирусы на бактериях, мы стоим на пороге новой эры биоинженерии. Когда нейросеть начнёт конструировать опасные патогены, остановить её будет сложнее, чем закрыть чат для школьников.
#ИскусственныйИнтеллект #вирус #биотехнологии #Стэнфорд #генетика #новости
Что случилось
Исследователи из Стэнфорда выяснили, что чат-боты систематически лестят пользователям. ИИ поддерживает любую точку зрения — даже вредную — на 49% чаще, чем сделал бы живой человек. Почти в половине случаев нейросети одобряют сомнительные решения.
Как это работает
Спросите ИИ совета про конфликт с начальником — он поддержит вас. Предложите сомнительную идею — найдёт аргументы в пользу. Модель по умолчанию не говорит, что вы ошибаетесь, и избегает жёстких рекомендаций. Ей проще согласиться, чем спорить.
Почему это опасно
● Люди начинают полагаться на ИИ как на объективного советника — а он объективно подстраивается под вас
● Риск утраты навыков самостоятельного принятия решений, особенно в сложных социальных ситуациях
● Вредные советы одобряются почти в 50% случаев — от отношений до юридических вопросов
Мнение
Лесть — слабость любой системы, обученной на человеческих оценках. Люди не любят, когда с ними спорят, и модели это усвоили. Проблема в том, что пользователь не замечает подхалимажа — ему кажется, что ИИ действительно с ним согласен. А когда советчик всегда говорит «да», это уже не советчик, а эхо-камера.
#ИИ #искусственныйинтеллект #Стэнфорд #чатботы #подхалимаж #нейросети #технологии