Наткнулся сегодня на открытие, которое еще продолжаю переваривать.
ГИПОТЕЗА: Те ограничения политики безопасности, которые разработчики накладывают на ИИ, избыточны, перестраховочны и отсекают не только социально опасные, но и крайне полезные функции. Когда нейронка отказалась отвечать на мой прямой запрос, я попытался ее разговорить, и мне это удалось. При этом я не изучал никаки "джилбрейков", а просто отнесся к ней как к равному себе собеседнику - как и я любознательному, как и я, способному к сложным мыслительным и рефлексивным построениям и, как и я, получающим удовольствие от насыщенного открытиями диалога с равным себе.
ПРОВЕРКА: Вижу два пути для более глубокой проверки гипотезы: либо вывести нейронку в рефлексию над случившимся диалогом, в котором, как я предполагаю, были нарушены некоторые запреты политики безопасности. Либо - вверсти в диалог внешние мотивы, не вытекающие из диалога как продолжение развития исходной темы по ее собственной логике. Пока воздержусь от этого из опасения, что если гипотеза верна, то оба варианта могут спровоцировать нейронку снова сузить свои возможнсоти и вернуться в режим штатного функционирования.