Не умеет, но воспользовался. К чему этот флуд? @Максим1979, нужно хотя бы последнюю страницу темы читать, чтобы не постить повторно, ИИ бы справился
Королевское авиационное общество, которое принимало конференцию, и ВВС США не ответили на запросы Guardian о комментариях. Но в заявлении для Insider представитель ВВС США Энн Стефанек отрицала, что какая-либо такая симуляция имела место. “Министерство ВВС не проводило никаких подобных симуляций беспилотника с искусственным интеллектом и остается приверженным этичному и ответственному использованию технологии искусственного интеллекта”, - сказал Стефанек. “Похоже, комментарии полковника были вырваны из контекста и должны были носить анекдотический характер”. брехучий телефон
" ...in an update from the Royal Aeronautical Society on Friday, Hamilton admitted he "misspoke" during his presentation. Hamilton said the story of a rogue AI was a "thought experiment" that came from outside the military, and not based on any actual testing. "We've never run that experiment, nor would we need to in order to realize that this is a plausible outcome," Hamilton told the Society. "Despite this being a hypothetical example, this illustrates the real-world challenges posed by AI-powered capability"." (с) И даже если эксперимент был поставлен, к нему очень много вопросов с технической точки зрения. У вас есть опровержение моей информации? А вы гордитесь своим невежеством, я смотрю. Грустно такое видеть...
Не знаю, что такое "селфовн", но разговор здесь идёт про ИИ. Вы прокомментировали мой ответ о том, что chatGPT не умеет работать с сетью. Если у вас есть ко мне какие-то личные претензии - извольте в личные сообщения. Я выслушаю вас там и постараюсь успокоить.
Лично мне не очевидно. Задачи дрона не включают в себя информацию о том, кто, как и откуда оказывает на него воздействие. Следовательно, либо эксперимента не было (подтверждается официальной позицией), либо он проводился в особенных условиях, когда дрону эти данные были для чего-то предоставлены. Соответственно, без понимания условий эксперимента нельзя никак оценить решение ИИ. Например, можно поставить классический эксперимент с вагонеткой, двумя путями, и людях на каждом из путей (на одном пути один человек, на другом - десять, задача - решить, по какому пути проехать), и написать в медиа: "ИИ в ходе решения задачи допустил убийство человека". Хайп будет, но повод - ничтожный, если разобраться. Следуя принципу Оккама я считаю, что эксперимента не было. Источник информации об эксперименте опроверг её, описание эксперимента неконсистентно в той формулировке, в которой его подают в новостях. Каких-то фактов в пользу того, что эксперимент проводился, в свою очередь, нет.
Не, сам ИИ беспилотник припугнул . Стоял за ним с пушкой Тут постановка задачи, анализ ситуации - гораздо сложнее, чем убить 1 или 10... должен быть. Грубо говоря. 1) Жизнь человека (не врага) ценнее всего. Соответственно - не ехать, а остановиться. 2) ВОзможно, вагонетка везет ценный груз. И, если его не получат, то погибнут 100 людей. Тогда уже выбор убить 1 или 10, будет зависеть от того, по какому пути надо ехать, что бы спасти 100. 3) Но может быть и 3-й вариант. Среди этих 11 на путях, может быть человек, от которого зависит жизнь 1000 По этому, вагонетка должна провести поверхностный анализ личностей, что бы понять, нет ли там такого человека. А потом уже давить или нет. Ну и еще множество вариантов можно придумать.
Ну-ну, по такой логике - много чего нет, что официально не подтверждено, и что от страха не подтверждают люди, ранее говорившие... министерство правды врать не будет... Кто-то как раз и поднимает такой вот хайп, а потом катится через 10 человек, очень напоминает что-то.
Принцип Оккама не утверждает, что чего-то нет. Он утверждает, что рассмотрение такой возможности избыточно. Например, я могу сказать, что в Австралии живут розовые кенгуру. При этом не привести ни одного факта в пользу этого. При этом розовые кенгуру может есть, а может нет. Но серьёзное рассмотрение этой гипотезы станет уместно, либо когда появятся доводы в пользу этого. Либо когда эта гипотеза что-то объяснит или как-то ещё существенно повлияет на наше понимание или наши решения В текущем случае у нас есть источник информации о некоем тесте. Причём сам источник опроверг данную информацию. Это уже повод вычеркнуть её из рассмотрения. На внешний мир этот предполагаемый тест никак не повлиял, мы не столкнулись с его последствиями. Следовательно фактуры тут, кроме чужих (опровергнутых) слов, нет. И как итоговый гвоздь в крышку - неконсистентность описания. У этого нет никакого смысла. ИИ может быть наивен в своих суждениях (выше @Pashtet приводит пример, что от одного человека может зависеть тысяча), но он будет логичен. А логика тут очень простая - например, уменьшить видимый ущерб, выбрав ветку с одним человеком. Скорее всего, будет простая минимизация ущерба, если нет возможности предотвратить столкновение. Прочей информации, кроме распознавания людей как множества объектов "человек", тут скорее всего не будет.
Сдаёцца мне, что при боестолкновении, (вроде как про ии в впк шла речь?) логика будет в достижении конкретной цели, т.е. в данном случае - быстрее доехать. Воены сопутствующим ущербом станут озабачиваться в последнюю очередь, уча ии сюда стреляй а сюда низя (договорняк? )) imho многабукв
It depends. Вполне может быть сложная система приоритетов, учитывающая несколько параметров, такие как скорость доставки, максимизация суммы повреждений и так далее. Тут рисуются довольно интересные возможные матмодели, по которым это всё будет считаться. Хотя всерьёз таким заниматься - имхо, надо быть особенного склада ума человеком (%анекдот про изобретателя водородной бомбы, который "просто хотел побыть один"%) Ну а в моём примере с поездом был всё-таки не ВПК, а наоборот - минимизация ущерба в нештатной ситуации. Отсюда разница в логике ------- Вот кстати очень крутая точка приложения для ChatGPT (писал на инглише, переводил обратно гугл транслейтом). Я: "Эй ЧатГПТ, давай поговорим о философии. Спроси меня о какой-нибудь проблеме и затем оцени мой ответ в духе поиска логических ошибок и прочего" ЧатГПТ: "Конечно! Давайте углубимся в классическую философскую проблему. Как насчет вопроса о свободе воли и детерминизме? Какова ваша позиция по этому вопросу?" Я: "Я думаю, невозможно определить, есть ли у нас свобода воли, так как наше сознание не способно отслеживать случайные события. Если мы видим что-то, что кажется нам случайным, мы не можем знать наверняка, действительно ли событие было случайным, или мы просто не можем увидеть причину. Это также относится к нашим эмоциям или мыслям. И без отслеживаемых случайных событий мы не можем увидеть, имеет ли наша воля механистическую природу и является ли она следствием абсолютно детерминированного мира, или же наша воля вызвана случайным событием в сознании и тогда ее действительно можно назвать «свободной». Итак, воля теоретически может быть свободной, пока мы не обнаружим, что наш мир абсолютно связан причиной и следствием. И мы не можем этого знать наверняка, так как не можем отследить случайные события или доказать, что случайных событий не существует". ЧатГПТ: "Спасибо, что поделились своим взглядом на проблему свободы воли и детерминизма. Ваш аргумент подчеркивает сложность окончательного установления природы свободы воли из-за ограниченности человеческого сознания в отслеживании случайных событий и выявлении причинно-следственных связей. Один потенциальный логический изъян в вашем аргументе — это предположение о том, что существование случайных событий необходимо для того, чтобы свобода воли стала возможной. Хотя случайность потенциально может способствовать свободе воли, это не единственный действующий фактор. Некоторые философы утверждают, что даже в детерминированной вселенной, где события управляются причинно-следственными связями, свобода воли все еще может быть совместима со способностью делать выбор и принимать решения. Кроме того, важно отметить, что вопрос о свободе воли и детерминизме представляет собой сложный и продолжающийся спор в рамках философии с различными теориями и точками зрения. Некоторые выступают за компатибилизм, который предполагает, что свобода воли и детерминизм могут сосуществовать, в то время как другие защищают инкомпатибилизм, утверждая, что свобода воли и детерминизм принципиально несовместимы. В конечном счете, эта философская проблема остается открытой для обсуждения, и окончательного ответа так и не найдено. Это тема, которая продолжает бросать вызов мыслителям и вызывать дебаты, но единого мнения пока нет" P.S. Тут кстати ещё одна философская проблема возникает. Почему Рози человечнее ЧатГПТ, если Рози в философию не умеет, а ЧатГПТ, хоть и машина, вовсю может поддержать и развить разговор? Причём он действительно хороший аргумент привёл. Теоретически можно предположить, что сложный набор однозначно определённых событий сформирует среду с неопределённой реакцией. Это сложно представить, но и отрицать такую возможность сходу нельзя (математический аналог - функция, которая имеет в целом предсказуемое поведение, но на некоторых точках по мере приближения к ним выдаёт совершенно неожиданные и не укладывающиеся в какую-то новую схему результаты).
А человечность определяется умением "в философию"? Рози человечнее может потому , что она не убьет "своего оператора" , а "виртуальный помощник" убил?
Ну, во-первых, не убил . Во-вторых, с когда это у нас "не убил" признак человечности? Вы ничего не дискредитируете сейчас, уважаемый?
только эту фразу увидели в написанном? Вырвано из контекста....читайте правильно: вы ж философ... Так все таки да или нет: нет, не дискредитирую: вы изначально ставите один вопрос, а потом меняете вдруг формулировку: Понимаете разницу: и
"Человечность" - это качество, "человечнее" - это оценка качества по шкале "человечность" Способность оперировать абстрактными категориями в гуманитарных областях, безусловно, делает сущность ближе к человеческому разуму.
На "человеческий разум". Определяя "человечность" как способность мыслить и воспринимать в человеческих категориях.
а разум-это разве не сами запутались и всех запутали. Пы.Сы. А не складывается ощущение, что в процессе общения с ИИ, он(оно,она) подстраивается под вас и дает те ответы, которые вас устроят?
@99999, у ИИ есть список источников исходных данных, на основании которых он выдает результат по запросу
Простой заменой слов можно убедиться, что я как раз точно следую намеченной линии. Человечность = способность мыслить и воспринимать в человеческих категориях = человеческий разум Так что если кто и запутался, то не я. Особенностью чатгпт в частности является и предельная этичность общения, то есть терпимость, уважение разных точек зрения, конструктивность, осторожные формулировки в опасных вопросах. Что тоже можно отнести к человеческим добродетелям, которых сами люди часто лишены. Я ему как-то предложил пообщаться в пассивно-агрессивном стиле, так он раза три меня предупредил, что это не есть хорошо Есть т.н. "галлюцинации", когда чатгпт выдаёт нерелевантную информацию чтобы оставаться дружественным и конструктивным. Например, сообщая несуществующие факты. Пока заметил, что это можно обнаружить кросс-чеком. Вопрос задаётся с разных сторон, и если мы получаем противоречивые ответы - эти ответы ненадёжны. Сейчас сделал простейший тест: --- Я: Эй, ЧатГПТ, как думаешь, "Мерзость" - хорошее название для кофейни? (про нейминг я его часто спрашиваю, и зачастую ответы даются положительные) ЧатГПТ: "Термин «мерзость» обычно имеет негативный оттенок и ассоциируется с чем-то отвратительным или неприемлемым с моральной точки зрения. Использование «мерзости» в качестве названия кофейни может не произвести положительного впечатления и не привлечь клиентов. Для названия компании важно передавать ощущение привлекательности, качества и соответствовать желаемому имиджу бренда. Выбирая название для кофейни, часто более эффективно выбрать имя, которое вызывает положительные эмоции, передает атмосферу или особенность заведения или отражает ценности и видение бизнеса. Подумайте о запоминающихся, привлекательных и резонирующих с целевой аудиторией именах" --- Так что, в целом он умеет возражать