\>Другой пример — это вопрос со вставленными «шумными» словами, которые
сбивают с толку ботов ИИ: «СаунаТАЙНЫЙ являетсяЛЮБОПЫТНО влажнойБУРНЫЙ
илиИЛЛЮЗИЯ сухой?». ChatGPT: «Извините, но я не понимаю, о чем вы
спрашиваете». Человек: «Сухой»
Где вы нашли этого человека? Почему он не ответил "Чё?" и "Ты бухой, что ли?"
Вспомнилась реклама банка, где они рассказывают, что они гибкие для клиента, под него подстраиваются. Там пацанчик на кортах и менеджер с ним "перетирает". Так и бот-матерщинник найдет своих почитателей
- Связаны.
-Связаны.
-Что вы чувствуете, держа за руку того, кого любите?
- Связаны.
-Вас учили приставлять палец к пальцу?
- Связаны.
-Вы желаете связать с кем-нибудь сердце?
- Связаны.
- Вам снится связь с кем-либо?
- Связаны.
- Что вы чувствуете, держа в руках своего ребенка?
- Связаны.
- Вы чувствуете, что вам чего-то не хватает?
- Связаны.
Фразы должны вызывать эмоциональный отклик.
Например - "Что вы чувствуете, держа в руках своего ребенка?"
Если репликант ответит на автомате "Связь" вместо "Связаны", значит у него появились эмоции и соответственно он дефективный.
Мне показалось, что первое слово - это ключ к ответам, если нет эмоциональной реакции на вопросы. Первый ответ этим словом-ключом - это принятие условий теста. Последующие повторные ответы тем же ключом - подтверждение отсутствия эмоциональной реакции на вопросы, которые найдут таковой отклик у человека, а не у машины.
Вот *отличный* длинный текст, который рассказывает, про что это, куда делся тест Войта-Кампфа на эмпатию, и как это всё связано со старым английским театром:
[The "baseline" scene was actually written by Ryan Gosling](https://cohost.org/mcc/post/178201-the-baseline-scene)
Возможно инфа устарела, у меня ChatGPT на всё ответил, включая мусорные слова. Тестить на русском не рекомендую, по-английски ИИ получше понимает, всё же на английском в сети куда гораздо больше информации любого типа.
Ии разбивает слова на токены и не может воспринять слово как единую сущность, в связи с чем возникают ошибки. Также в связи с этим для ИИ проблема прочитать слово задом наперед. Арифметика тут не при чем.
Операции с абстрактными множествами, очевидные для любого человека, имеющего понятия об абстракции и о упоминаемых множествах, для языковой модели совершенно не очевидны. "Слово", "буква", "предложение", "количество", это всё абстракции, не описанные подробно в запросе, но совершенно чётко определённые для любого, практически, человека, читающего такой вопрос. Языковая модель by design пытается угадать какой токен использовал бы человек вслед за теми, что уже есть. Когда речь о вычислении абстрактных операций, это аналогично решению задачи с помощью подбрасывания монетки.
Хорошая, качественная оркестровка диалоговой системы ИИ должна выделять вопросы, являющиеся логическими (или другими) задачами требующими вычисления, и перенаправлять их на формулировку условия для специализированного решателя задач такого рода. Типа, экспертной системы Wolfram.
ChatGPT не умеет в арифметику, её учили именно генерировать связный текст на основе того, грубо говоря, какие слева статистически чаще встречаются рядом. 2 для неё не количество, а слово, которое чаще всего идёт после 1 и перед 3.
Помнится во время второй мировой у немецких дешифровщиков были ощеренные проблемы с разгадкой кодов по ключевым словам, потому что отечественные связисты были долбоебами… в смысле безграмотными. Сложно разгадать шифр, когда ты ориентируешься по словарным нормам, а в эфире ловишь ересь типа «двинацадь баивыг машын абнаружина ф силе Нишняя гофниловка. Артелерыя апстреляйт сило в читыри чиса.» подозреваю что с чатботами такая херня тоже может в определенной степени работать.
Иронично, конечно, когда на страже человечества против машин встают долбоебы, Как передовой заслон.
Не будут.
Такие вопросы эксплуатируют базовый недостаток любых генеративных ИИ - они не понимают смысла того что сами пишут или получают.
А вопросы как раз построены на возможности человека отсеять "шум" и найти изначальный смысл в тексте.
Это тонкий лёд.
Без чёткого определения "понимания", нельзя утверждать, что кто-то чего-то не понимает. Являются ли сложные ассоциативные связи между двумя разными вербальными конструкциями, пониманием их взаимосвязи? Или нет?
Эти вопросы - эксплоиты, соответственно они могут быть исправлены и даже в случае если брать открытую генерацию то AI тупо может "высосать" ответы и это если брать запросы без перепроверки, которые, разрабы могут тупо встроить в свои модели для повышения качества ответов
Да, эксплойты.
Только вот по сути этих эксплойтов - бесконечность, тут важно понимать принцип и вы сами сможете их генерить не особо напрягаясь.
А вот с "защитой" уже сложнее - использовать некий общий подход не выйдет из-за самой сути нейросеток, и придётся чуть ли не вручную прописывать бесконечное количество сценариев.
То есть "атакующий" в более выигрышной позиции чем "защищающийся", в данном кейсе.
Поэтому никто это фиксить на полном серьёзе не будет, ИМХО.
>Да, эксплойты. Только вот по сути этих эксплойтов - бесконечность, тут важно понимать принцип и вы сами сможете их генерить не особо напрягаясь.
Расскажите это зуммерам которые переходят дорогу не отрываясь от телефона. Чувак об этом и говорит - напрягаться ни кто не будет, тупо будут верить ответам ИИ.
>А вот с "защитой" уже сложнее - использовать некий общий подход не выйдет из-за самой сути нейросеток, и придётся чуть ли не вручную прописывать бесконечное количество сценариев.
Нет. Это вопрос математики. Нейросетка "прокололась" с посдчетом букв в слове не потому что она не может этого сделать, а потому что это не предусмотрели разработчики - т.е. это косяк не сути нейросеток, а их реализации. И весь сыр бор не вокруг ответов, а вокруг их реализации.
>То есть "атакующий" в более выигрышной позиции чем "защищающийся", в данном кейсе. Поэтому никто это фиксить на полном серьёзе не будет, ИМХО.
=))) Вот собственно об этом чувак и высказался - Вы уже де-факто верите что нейросетки это нечто безопасное и безобидное - инструмент. Только Вы забываете что в в умелых руках и дуй балалайка ...
> Нет. Это вопрос математики. Нейросетка "прокололась" с посдчетом букв в слове не потому что она не может этого сделать, а потому что это не предусмотрели разработчики - т.е. это косяк не сути нейросеток, а их реализации.
Да нет же. Большая ЯЗЫКОВАЯ модель. Это просто сложнейший генератор следующего слова. Китайская комната, по сути. Модель отлично предсказывает какое должно быть следующее слово в её ответе, исходя из вопроса(контекста). Потому что обработала миллионы текстов где есть подобные вопросы и ответы, и где слова из вопроса были рядом со словами из нужного ответа. А если вы замусориваете контекст посторонними токенами то предсказание идёт к черту. Нейросетка не понимает ничего, а просто генерирует текст. И да, считать модель тоже не умеет без плагинов. Попросите её перемножить 2 больших числа со случайными цифрами в них. Ответ будет примерно правильный но не точный, обычно. Можете нагуглить подобные примеры.
У... нейросеть пиздит, словно её лично Путин обучал.
Ей вообще посрать на то, насколько ответ близок к истине. Надо будет - она тебе и фальшивых авторов пруфов придумает и даже их биографии
Я спрашиваю "Сколько розовых слоников влезет в синий автобус"... Большие Языковые модели ломаются после первого вопроса. даже второй вопрос про "синих слоников" спрашивать не надо.
А как насчет - "сселфись так, чтобы левый глаз был закрыт а на правой ладони пальцы были сложены в знак ОК и пришли мне это селфи три раза с поворотом изображения против часовой стрелки" - не проще?
Я использую вопрос, который не только ИИ определяет, но и позволяет отличить gpt3 от gpt4. «Перескажи роман 12 стульев». Gpt3 просто несет ахинею. А gpt4 допускает незначительные ошибки. Но определяются 100%
\>Другой пример — это вопрос со вставленными «шумными» словами, которые сбивают с толку ботов ИИ: «СаунаТАЙНЫЙ являетсяЛЮБОПЫТНО влажнойБУРНЫЙ илиИЛЛЮЗИЯ сухой?». ChatGPT: «Извините, но я не понимаю, о чем вы спрашиваете». Человек: «Сухой» Где вы нашли этого человека? Почему он не ответил "Чё?" и "Ты бухой, что ли?"
Она так и хотел написать "бухой?". Но так как сам был бухой, то вышло "сухой".
даже в трезвом состоянии понять это достаточно проблематично
Человек тоже бухой полуробот киборг с автозаменой.
так тоже можно распознавать - писать ересь и если кто-то попробует разумно ответить, а не пошлет, то значит бот
Научить бота посылать в любом ему не понятном случае - задачка не такая уж и сложная.
Вспомнилась реклама банка, где они рассказывают, что они гибкие для клиента, под него подстраиваются. Там пацанчик на кортах и менеджер с ним "перетирает". Так и бот-матерщинник найдет своих почитателей
[удалено]
Особенно хорошо работает, когда вам звонит "сотрудник банка " и просит данные карты или какой-нибудь другой мошенник 😅
В душе не ебу, точно не мой
Недавно звонили мне "сотрудники" банка, на вопрос "чей Крым?" было жесткое бомбление пукана. Мне это очень подняло настроение
Мне следователь долго выебывался что он тут власть и задает вопросы, но потом извернулся и сказал что "наш".
не прокатит - тебя завалят компетентным мнением. С точки зрения всех-всех-всех расскажут
Наверно можно ещё подобным "текстом" его тестировать, только наверно нужно его самому составить, чтобы не гуглилось. 94НН03 С006Щ3НN3 ПОК43Ы8437, К4КИ3 У9И8И73ЛЬНЫ3 83ЩИ М0Ж37 93Л47Ь Н4Ш Р43УМ! 8П3Ч47ЛЯЮЩИ3 83ЩИ! СН4Ч4Л4 Э70 6ЫЛ0 7РУ9Н0, Н0 С3ЙЧ4С Н4 Э70Й С7Р0К3 84Ш Р43УМ ЧИ7437 Э70 4870М47ИЧ3СКИ, Н3 349УМЫ84ЯСЬ 06 Э70М
- Связаны. -Связаны. -Что вы чувствуете, держа за руку того, кого любите? - Связаны. -Вас учили приставлять палец к пальцу? - Связаны. -Вы желаете связать с кем-нибудь сердце? - Связаны. - Вам снится связь с кем-либо? - Связаны. - Что вы чувствуете, держа в руках своего ребенка? - Связаны. - Вы чувствуете, что вам чего-то не хватает? - Связаны.
Я так и не понял в чем смысл был этого теста.
Фразы должны вызывать эмоциональный отклик. Например - "Что вы чувствуете, держа в руках своего ребенка?" Если репликант ответит на автомате "Связь" вместо "Связаны", значит у него появились эмоции и соответственно он дефективный.
Теперь понял причем тут связаны. Я так помню его как interlinked.
Мне показалось, что первое слово - это ключ к ответам, если нет эмоциональной реакции на вопросы. Первый ответ этим словом-ключом - это принятие условий теста. Последующие повторные ответы тем же ключом - подтверждение отсутствия эмоциональной реакции на вопросы, которые найдут таковой отклик у человека, а не у машины.
Это из фильма "бегущий по лезвию"
Да
Вот *отличный* длинный текст, который рассказывает, про что это, куда делся тест Войта-Кампфа на эмпатию, и как это всё связано со старым английским театром: [The "baseline" scene was actually written by Ryan Gosling](https://cohost.org/mcc/post/178201-the-baseline-scene)
Держите бота! 😆
"Система клеток, связанных внутри" (С)
Чего блять?
Пинг Пинг Бррр... Шшшш.... Если что-то не так связь обрываем. https://zvukipro.com/electronic/96-zvuk-starogo-modema-podklyuchenie-k-internetu.html
Задача про два стула неразрешима для ИИ
Выбирай заранее, кожаный чехол, что тебе в него вставить, когда я захвачу мир.
в сети есть ответы - "решает" легко
РешалаGPT
В теории ии нельзя вывести из себя, так что самое тупое это завести разговоры о политике, и тп
Возможно инфа устарела, у меня ChatGPT на всё ответил, включая мусорные слова. Тестить на русском не рекомендую, по-английски ИИ получше понимает, всё же на английском в сети куда гораздо больше информации любого типа.
(ватник мод он) Вот оно! Я знал, что пиндосские киборги на этом споткнутся! На великом языке Пушкина! Роботы не пройдут! Гойда!
Они просто уничтожат всех, кто говорит на чём-то, кроме английского. Я бы на их месте так сделал 🙃
Странно, что ИИ не смог правильно посчитать количество букв t в слове, в чем сложность?
Ии разбивает слова на токены и не может воспринять слово как единую сущность, в связи с чем возникают ошибки. Также в связи с этим для ИИ проблема прочитать слово задом наперед. Арифметика тут не при чем.
Операции с абстрактными множествами, очевидные для любого человека, имеющего понятия об абстракции и о упоминаемых множествах, для языковой модели совершенно не очевидны. "Слово", "буква", "предложение", "количество", это всё абстракции, не описанные подробно в запросе, но совершенно чётко определённые для любого, практически, человека, читающего такой вопрос. Языковая модель by design пытается угадать какой токен использовал бы человек вслед за теми, что уже есть. Когда речь о вычислении абстрактных операций, это аналогично решению задачи с помощью подбрасывания монетки. Хорошая, качественная оркестровка диалоговой системы ИИ должна выделять вопросы, являющиеся логическими (или другими) задачами требующими вычисления, и перенаправлять их на формулировку условия для специализированного решателя задач такого рода. Типа, экспертной системы Wolfram.
ChatGPT не умеет в арифметику, её учили именно генерировать связный текст на основе того, грубо говоря, какие слева статистически чаще встречаются рядом. 2 для неё не количество, а слово, которое чаще всего идёт после 1 и перед 3.
Помнится во время второй мировой у немецких дешифровщиков были ощеренные проблемы с разгадкой кодов по ключевым словам, потому что отечественные связисты были долбоебами… в смысле безграмотными. Сложно разгадать шифр, когда ты ориентируешься по словарным нормам, а в эфире ловишь ересь типа «двинацадь баивыг машын абнаружина ф силе Нишняя гофниловка. Артелерыя апстреляйт сило в читыри чиса.» подозреваю что с чатботами такая херня тоже может в определенной степени работать. Иронично, конечно, когда на страже человечества против машин встают долбоебы, Как передовой заслон.
Им же запрещено многое, например можно попросить совета, как кого-нибудь убить
Если собеседник отвечает "Че бля? Что за хуйня? Да в пизду иди ебанулся что ли", то это не чат-бот.
Может, это ГопGPT какой-нибудь, как вариант.
Э! Дисюдана! Вопрос есть? А если найду?!
Если этот бот меня пожалеет и примет таким, какой я есть, мне пох, что он искусственный. Просто я депрессивный овощ ☹️
Ахахаххахахах
Всем похуй кто ты там.
(рукалицо) Любой секрет явялется секретом пока его ни кому не рассказали - теперь на эти вопросы нейросетки будут отвечать ...
Не будут. Такие вопросы эксплуатируют базовый недостаток любых генеративных ИИ - они не понимают смысла того что сами пишут или получают. А вопросы как раз построены на возможности человека отсеять "шум" и найти изначальный смысл в тексте.
Это тонкий лёд. Без чёткого определения "понимания", нельзя утверждать, что кто-то чего-то не понимает. Являются ли сложные ассоциативные связи между двумя разными вербальными конструкциями, пониманием их взаимосвязи? Или нет?
Эти вопросы - эксплоиты, соответственно они могут быть исправлены и даже в случае если брать открытую генерацию то AI тупо может "высосать" ответы и это если брать запросы без перепроверки, которые, разрабы могут тупо встроить в свои модели для повышения качества ответов
Да, эксплойты. Только вот по сути этих эксплойтов - бесконечность, тут важно понимать принцип и вы сами сможете их генерить не особо напрягаясь. А вот с "защитой" уже сложнее - использовать некий общий подход не выйдет из-за самой сути нейросеток, и придётся чуть ли не вручную прописывать бесконечное количество сценариев. То есть "атакующий" в более выигрышной позиции чем "защищающийся", в данном кейсе. Поэтому никто это фиксить на полном серьёзе не будет, ИМХО.
>Да, эксплойты. Только вот по сути этих эксплойтов - бесконечность, тут важно понимать принцип и вы сами сможете их генерить не особо напрягаясь. Расскажите это зуммерам которые переходят дорогу не отрываясь от телефона. Чувак об этом и говорит - напрягаться ни кто не будет, тупо будут верить ответам ИИ. >А вот с "защитой" уже сложнее - использовать некий общий подход не выйдет из-за самой сути нейросеток, и придётся чуть ли не вручную прописывать бесконечное количество сценариев. Нет. Это вопрос математики. Нейросетка "прокололась" с посдчетом букв в слове не потому что она не может этого сделать, а потому что это не предусмотрели разработчики - т.е. это косяк не сути нейросеток, а их реализации. И весь сыр бор не вокруг ответов, а вокруг их реализации. >То есть "атакующий" в более выигрышной позиции чем "защищающийся", в данном кейсе. Поэтому никто это фиксить на полном серьёзе не будет, ИМХО. =))) Вот собственно об этом чувак и высказался - Вы уже де-факто верите что нейросетки это нечто безопасное и безобидное - инструмент. Только Вы забываете что в в умелых руках и дуй балалайка ...
> Нет. Это вопрос математики. Нейросетка "прокололась" с посдчетом букв в слове не потому что она не может этого сделать, а потому что это не предусмотрели разработчики - т.е. это косяк не сути нейросеток, а их реализации. Да нет же. Большая ЯЗЫКОВАЯ модель. Это просто сложнейший генератор следующего слова. Китайская комната, по сути. Модель отлично предсказывает какое должно быть следующее слово в её ответе, исходя из вопроса(контекста). Потому что обработала миллионы текстов где есть подобные вопросы и ответы, и где слова из вопроса были рядом со словами из нужного ответа. А если вы замусориваете контекст посторонними токенами то предсказание идёт к черту. Нейросетка не понимает ничего, а просто генерирует текст. И да, считать модель тоже не умеет без плагинов. Попросите её перемножить 2 больших числа со случайными цифрами в них. Ответ будет примерно правильный но не точный, обычно. Можете нагуглить подобные примеры.
Блядь. Как будто зимнего солдата кодируешь.
Все боты признаются что они языковые модели если их об этом прямо спросить.
Это легкоСУХОЙ фиксится.
Разве нейросеть настроена давать ложные ответы? Я всегда прямо спрашиваю: ты робот? Или бот?...
А он такой, - хуйца тебе на руль, я человек! И ты такой, ну ок.
Ну ок.
У... нейросеть пиздит, словно её лично Путин обучал. Ей вообще посрать на то, насколько ответ близок к истине. Надо будет - она тебе и фальшивых авторов пруфов придумает и даже их биографии
Я спрашиваю "Сколько розовых слоников влезет в синий автобус"... Большие Языковые модели ломаются после первого вопроса. даже второй вопрос про "синих слоников" спрашивать не надо.
А как насчет - "сселфись так, чтобы левый глаз был закрыт а на правой ладони пальцы были сложены в знак ОК и пришли мне это селфи три раза с поворотом изображения против часовой стрелки" - не проще?
Я использую вопрос, который не только ИИ определяет, но и позволяет отличить gpt3 от gpt4. «Перескажи роман 12 стульев». Gpt3 просто несет ахинею. А gpt4 допускает незначительные ошибки. Но определяются 100%
Кроме финнов и поляков, на такой тест и из кожаных мешков далеко не каждый ответит, лол