Лучано Флориди: «Если вам неинтересны информационные концепты, вы не понимаете XXI век»
Создатель философии информации, консультирующий Google и Facebook, объясняет устройство инфосферы. Старт новой рубрики «На рубеже»
В новой рубрике Кольты «На рубеже», сделанной при поддержке представительства ЕС в России, мы будем публиковать большие интервью с ведущими публичными интеллектуалами Европы: философами, политологами, социологами, антропологами. Название рубрики, в принципе, не требует объяснений. Ближе к концу десятых годов нового века мы живем с ощущением высокой волатильности эпохи — тревожной, поляризованной, стоящей перед новыми политическими, экономическими и технологическими вызовами. Успевать думать об этих переменах, часто происходящих с сокрушительной неожиданностью, — прямая цель нового раздела.
Первый наш собеседник — Лучано Флориди, известный итальянский философ, профессор Оксфордского университета. Флориди исследует философские и социально-этические последствия цифровой трансформации, сравнивая расширение инфосферы с открытиями Коперника, Дарвина и Фрейда, изменившими наши представления об устройстве Вселенной и о человеческой природе. Флориди — не только автор оригинальных теоретических концепций, но и эксперт. Значительная часть его деятельности связана с «прикладной» философией, особенно в сфере этики искусственного интеллекта. Например, он участвовал в составлении «Этического гайдлайна для надежного ИИ», выпущенного недавно Европейской комиссией, и консультировал по вопросам цифровой этики крупные транснациональные корпорации, такие, как Cisco, Facebook, Google, IBM и Microsoft.
С Флориди поговорили Арнольд Хачатуров и Армен Арамян.
— Вы часто говорите о том, что в XXI веке основным концептом философии должна стать информация. Вы даже считаетесь основателем одноименного направления — философии информации. Что это такое?
— Если говорить в институциональных терминах, то это ветвь философии, которая определяется через предмет изучения — как философия языка, сознания и т.д. Но существует и другая перспектива. Возьмем, например, Маркса. Конечно, у него был особый взгляд на всю философию, включая эпистемологию, философию искусства, философию языка. У всех у них есть определенный цвет, вкус: это вкус его философии, и этот вкус у Маркса — социополитический и экономический. Кант, что бы он ни делал, обязательно укоренял свое понимание философии в эпистемологии, даже когда писал об эстетике или метафизике.
Что касается меня, то я исхожу из информационной перспективы. Я обращаюсь к различным вопросам с точки зрения информации — к искусству, смыслу, языку, социальным наукам. И я думаю, что это мой вклад в развитие философии. Если вы не разделяете интерес к информационным процессам, вокабуляру, концептам, я не уверен, что вы понимаете XXI век. Это может звучать слишком радикально, возможно, многие коллеги с этим не согласятся. Но я счастлив от того случайного факта, что я стал основателем этого поля. «Это слишком амбициозно, абсурдно, кем ты себя возомнил?» Мне все равно! Я очень давно перестал об этом беспокоиться. Прав я или нет — что ж, есть всего одна жизнь, чтобы узнать. Но это лошадка, на которую я ставлю.
— В информационном пространстве равны все: «умные» тостеры, суперкомпьютеры и биологические организмы — например, люди. Все они воспринимаются как соразмерные источники данных. Как человеку не раствориться в инфосфере? Или, может быть, в конце человеческой исключительности нет ничего плохого?
— Я бы сравнил это с инфракрасной томографией, где видно источники тепла. Обычно это зеленые, желтые и красные оттенки, которые означают температуру — от низкой до очень высокой. Если надеть такие очки и смотреть на мир через этот интерфейс, человеческое тело и включенный компьютер могут не сильно отличаться друг от друга. Можно сказать, что при взгляде из этой перспективы в человеке нет ничего особенного — это только источник тепла, и тогда мы выглядим как «умный» тостер или цифровой холодильник.
Вопрос только в том, правильный ли это интерфейс. А это зависит от того, что мы хотим узнать с его помощью. Хорош ли этот способ для понимания человеческой природы? Безусловно, нет. На таком уровне абстракции мы уже не можем выделить отличительные черты человека. Мы используем информацию, чтобы строить свой ментальный мир, создавать смыслы для объяснения нашей жизни. Компьютер или кошка на это не способны. Чтобы увидеть эти различия, нужна другая перспектива — например, семантическая.
— Во многих технологических антиутопиях — например, в сериале «Черное зеркало» — поведение людей радикально меняется под воздействием технологий, а все остальные факторы отходят на второй план. Как вы относитесь к технологическому детерминизму? Что сильнее — слепой технологический прогресс или стремление людей жить по собственным правилам?
— Сценарии «Черного зеркала» очень интересны тем, что позволяют нам исследовать разные варианты нашего будущего. Но есть несколько вещей, которые эти сценарии не берут в расчет.
Первая: технологии не прогрессируют равномерно, единомоментно, как одна большая волна. Представьте себе плохой sci-fi, где все подряд летают исключительно на машинах. В реальности так не происходит. Даже если такая технология появится, то все равно останутся обычные машины, построенные в 1960-е. Как и сейчас: вы можете увидеть на улице современный электрокар и машину 50-летней давности. Распространение технологий не происходит по щелчку: раз — и все стало цифровым. Прогресс никогда не работал таким образом и никогда не будет так работать. В некоторых регионах планеты люди все еще не владеют письменностью, которая была изобретена 6000 лет назад. Сейчас, конечно, есть глобализация, поэтому технологии распространяются быстрее. Но все равно не надо недооценивать рассинхронизацию. Детерминизм обычно построен на идее, что все работает как часы. Но на самом деле есть локальные фрагментированные реальности, которые создают разнообразие, контрасты и так далее.
Другие вещи, которые не учитывает sci-fi, связаны с фундаментальными свойствами человеческой природы. Первое — это лень. Мы не хотим сильно напрягаться. Это замедляет единообразное развитие и распределение технологических решений: всегда есть инерция, нежелание принимать новые способы делать привычные вещи. Эти «силы трения» обеспечивают такие явления, как, например, сохранение до сегодняшнего дня аналогового ТВ.
Еще одно свойство, практически противоположное, — это склонность к разочарованию в новинках. Как только нам что-то понравилось, мы начинаем тут же искать что-то другое. Сегодня это магия, а через год окажется, что этот айфон недостаточно быстрый. Что бы вы ни дали человеку, любая технология обречена в очень короткий промежуток времени стать источником разочарования, а это двигатель изменений.
Итак, если первое качество обеспечивает инерцию, то второе — новизну, разрывы. Смешаем их в одном коктейле вместе с первым пунктом — и что останется от детерминизма? Нельзя просто взять и распылить некую технологию по всему свету, предположив, что все люди ее сразу примут. Это хороший эксперимент, но абсолютная фикция.
— При этом научная фантастика почти всегда сохраняет антропоцентричный взгляд. Взять, например, сериал «Westworld»: когда андроиды наконец обретают самосознание, оказывается, что они просто хотят быть как люди.
— Этим продуктам нужно быть коммерчески успешными. За наиболее распространенной фантастикой стоит рынок, который говорит, как что-то продать человеку. Никто не захочет смотреть историю без человеческих эмоций, вовлеченности. Это как «История игрушек», в которой игрушки вообще не имеют ничего общего с людьми. Это бы не продавалось. Возможно, это интересный исследовательский проект: посмотреть на произведения научной фантастики с плохими продажами из-за того, что в них было очень мало вовлечения. Например, история про умные камни или инопланетян с радикально другой культурой. Написать такое очень сложно, потому что почти нереально избежать человеческой перспективы и антропоморфизации. Интересно ли это читать? Не думаю (смеется). Но в одной из библиотек в мире наверняка есть похожий текст.
— В своих лекциях вы часто говорите, что технологический дискурс во многом пропитан религиозным словарем: темами надежды, загробной жизни, воображаемого «лучшего» будущего и т.д.
— Да, но технологический дискурс сегодня — это окончательная секуляризация эсхатологического дискурса. Эсхатологический дискурс — это то, что мы всегда обсуждаем в терминах конца жизни и мира, задаваясь вопросом, есть ли в них смысл. Все это — макроуровень, существующий внутри любой культуры, любой религии, любого эстетического переживания. Смысл, который мы придаем жизни, всегда эсхатологический.
Марксизм и капитализм — тоже варианты такого эсхатологического дискурса, эти идеологии хотели и все еще хотят вернуть мечту о золотых богах, о религии в том или ином смысле. Если же взять эсхатологический дискурс и лишить его всякого религиозного, метафизического, трансцендентного содержания, то у нас останется имманентная секулярная схема развития.
Например, технологии все время пытаются решить одну из трех задач. Первая — это те виды деятельности, которыми никто не хочет заниматься. Пример — посудомоечная машина. Развиваются технические объекты, помогающие делать то, что я не хочу делать сам. Вторая — это вещи, которые доставляют мне удовольствие; технологии могут помочь заниматься ими больше и лучше. Третья категория не устраняет нежелательные виды деятельности и не помогает выполнять желательные, а формирует новые. Возьмем, к примеру, компьютерные игры. 200 лет назад представить видеоигры как огромную индустрию развлечений было просто невозможно. Вполне вероятно, что существуют и другие формы развлечений, которые нам еще только предстоит открыть.
И сейчас главной силой секуляризации эсхатологического дискурса являются технологии. В технологическом дискурсе речь всегда идет о развитии, о будущем, которое должно быть лучше, чем настоящее, о расширении наших возможностей. Я думаю, что мы, как сомнамбулы, продвигаемся к этому медленно и тихо, как это случается с большинством фундаментальных философских решений, принимаемых нами.
— Сегодня мы живем в мире, где компьютерные алгоритмы окружают нас на каждом шагу. Какой этический вызов вы считаете в этой связи самым важным?
— Проблема с алгоритмами, как я ее понимаю в широком философском смысле, заключается в том, что впервые в истории человечества появилась новая форма автономной агентности. Это действительно важное событие. До Канта и посткантианской философии мы понимали автономию как некоторую законченную сущность. Не было необходимости добавлять к ней какое-то прилагательное, не нужны были пояснения, потому что единственная автономия, которую мы знали, была наша собственная. Когда Кант сформулировал свои идеи, или в эпоху пост-Просвещения, или когда мы дошли до Декларации прав человека — весь расцвет человечества и человеческое достоинство были построены на этой автономии. Это важный камень в фундаменте всего сооружения.
А теперь мы понимаем, что создали новую форму агентности, базирующуюся на, скажем так, синтаксической (или компьютерной) автономии. Как бы мы их ни называли, эти автономные предметы могут получать исходные данные, обрабатывать их, выдавать другие данные на выходе, учиться на этих результатах, менять собственное поведение и улучшаться до тех пор, пока не достигнут желаемых результатов. Это вид автономии, никогда не виденный нами прежде. Баланс между этим новым типом автономии и нашей собственной, которой он бросает вызов, — для меня главная алгоритмическая проблема сегодня. Как мы можем соблюдать этот баланс? Будут ли автономные алгоритмы принимать решения за нас, вместо нас, неустанно подрывая нашу ответственность, нашу свободу? Будут ли они, например, использоваться людьми исключительно как средства, позволяющие составить профили всех групп населения по той зубной пасте, которой они пользуются?
— Алгоритмы не только создают новый тип автономии, но и воспроизводят предрассудки. Распространенный пример — скоринговые системы банков, отказывающие в кредитах этническим меньшинствам. Проблема здесь в «плохих» данных или в том, как изначально устроен язык алгоритмов?
— Я думаю, что фундаментальный недостаток — в культуре, в которой мы используем данные. Да, в техническом смысле данные могут быть «грязными» и предвзятыми. Если мы их используем, они приводят к неоптимальным решениям. Но заниматься надо все равно культурой. В мире, где вам нужно за час оценить 1000 резюме для 10 вакансий, соблазн сделать это быстро и автоматически на основании данных, собранных алгоритмами, очень силен. В чем именно здесь проблема — в данных или в культуре, которая требует проделать всю эту работу за час? Мы можем улучшить алгоритмы, но изменить культуру очень и очень сложно.
Но в этой ситуации есть и кое-что положительное. Если данные содержат предрассудки, это значит, что эти предрассудки были и раньше. То есть мы можем использовать алгоритмы как микроскоп. Дискриминацию часто очень сложно идентифицировать. Возьмем архив решений в юридической системе. Конечно, можно сказать, что люди вот с таким цветом кожи чаще оказываются на скамье подсудимых, но алгоритмы справятся с этим точнее. Если настроить их нужным образом, они будут не усиливать предрассудки, а высвечивать маленькие паттерны, о которых мы можем не подозревать. Например, в банковской системе может быть что-то, что не было никем запланировано, но при этом дискриминирует клиентов.
— А уже есть примеры использования алгоритмов в диагностике социальной несправедливости?
— Мир большой, возможно, кто-то этим и занимается. Но это точно не главный тренд. Мы живем в культуре, в которой время постоянно сжимается и ускоряется. И, какие бы данные ни были на рынке, компании стремятся применять их, чтобы работать эффективнее. Важно удостовериться, что данные «чистые» и не нарушают закон, а потом можно прогонять их через алгоритмы и оптимизировать процесс. Справедливость — не главная забота, она приходит с запозданием: погодите, а это о'кей? Удовлетворяет ли это самым минимальным этическим требованиям? Компании рано или поздно задают такие вопросы, но это явно не главный двигатель того, что происходит.
— Вы взаимодействуете с крупнейшими технологическими компаниями как эксперт по этике искусственного интеллекта. Прислушиваются ли они к вашим идеям?
— Конечно, возможность донести свои идеи есть всегда. Но недостаточно один раз сказать: «Смотрите, надо сделать это и это». Это марафон, долгосрочная беседа. К тому же это не единственное, что мы можем сделать. Есть ведь простые стимулы — например, прибыль. Это очень сильный фактор по сравнению с разговорами о том, что нам нужна справедливая культура. Если мы не выстроим стимулов к тому, чтобы компании поступали правильно, нам будет очень сложно прийти к единому фрейму, единому дизайну государственной политики в сфере ИИ. Для этого надо использовать самые разные инструменты госуправления. Коммуникация — это только один элемент. Нужны все остальные.
— Сегодня много обсуждаются новые формы неравенства, связанные с концентрацией огромных массивов данных о каждом из нас в руках горстки крупных корпораций. В этой связи предлагается достаточно радикальное решение. Поскольку конкуренция в цифровой среде из-за «сетевого эффекта» (чем больше пользователей подключено к той или иной цифровой платформе, тем большую ценность она для них представляет) работает плохо, предлагают уравнять информационные интернет-сервисы с коммунальными услугами, такими, как дороги или трубопроводы. Что вы думаете об этой идее?
— Я думаю, это поезд, на который мы уже давно опоздали. Посмотрите, куда движется мир: мы, наоборот, делаем все больше и больше общественных сервисов частными. В Великобритании мы приватизировали даже железные дороги. Национализацию интернет-компаний невозможно себе представить. Конечно, в истории всякое бывает, но это малореалистично. Хотя, даже если бы это было правдоподобно, это не решило бы всех проблем, потому что публичная природа сервисов часто снижает их качество. В целом я не за и не против национализации: я думаю, что нужен индивидуальный подход к каждому случаю. Нужно ли приватизировать библиотеки? Надеюсь, этого никогда не случится! Поэтому надо смотреть на смешанные сценарии.
— Есть еще предложение платить людям за данные, которые собирают с них технологические компании.
— Я могу ошибаться, но, на мой взгляд, это тоже не сработает. Есть два способа платить за вещи. Приведу пример из академической сферы. Вы можете получить денежный грант на исследования, а можете получить его «натурой»: например, в вашу лабораторию на полгода отправят техника. Когда речь идет об интернет-сервисах, мы тоже платим за них «натурой». Чтобы пользоваться Google, мы отдаем ему свои данные. Получаем ли мы взамен хорошую услугу? Это и есть главный вопрос. Я не хочу продавать свои данные за 10 долларов в год, я хочу их использовать для доступа к хорошему продукту. Для меня решение проблемы, о которой вы говорите, лежит в плоскости конкуренции и антитраста. Если у нас будет три Amazon, три Apple, три Google и так далее, потребитель будет королем.
Подумайте вот о чем. Есть только два случая, когда IT-гиганты не смогли конкурировать друг с другом. Google Plus закрылся, проиграв конкуренцию Facebook, а Microsoft не смог тягаться с Google на рынке браузеров. И все. Если гиганты с такими ресурсами и такой скоростью развития технологий не могут вытеснить друг друга с рынка, здесь явно что-то не так. Правила игры не работают, потому что они писались в прошлом столетии для аналогового мира. Надо обновить антитраст и правила конкуренции, и тогда можно будет голосовать «цифровыми ногами» за хорошие услуги. И вот тут политика имеет огромное преимущество. Законодательная власть находится только в руках государства — компании не могут создавать свои законы и правила игры. Так что нужно смотреть на то, что следует изменить в основаниях общества, а не просто наклеивать на раны пластырь, который не лечит.
— Недавно в ЕС была попытка обновления законодательства по защите приватности в интернете — вступил в силу новый регламент обработки персональных данных GDPR. Как считаете, это успешный опыт?
— Да, это очень хороший пример законодательной деятельности. Конечно, все устаревает и уточняется, и я уверен, что скоро мы увидим GDPR 2.0. Но это очень серьезное начало. Еще один хороший пример — это гайдлайн в области этики ИИ, который мы выпустили с высокоуровневой экспертной группой при Еврокомиссии. Если объединить эти две вещи, получится очень большой шаг вперед. Теперь, если компании хотят сделать что-то хорошее, им больше не надо придумывать свои правила с нуля.
— В ваших работах по этике искусственного интеллекта вы предлагаете общую, универсально применимую этическую рамку. Сегодня во многих дискуссиях об этике искусственного интеллекта ставится вопрос о том, может ли этика быть универсальной или она должна быть релятивистской. Кто должен выбирать этическую рамку и как будет поддерживаться этическое разнообразие? Должен ли в этике ИИ поддерживаться принцип плюрализма?
— Мы лелеем идею разнообразия и думаем, что разнообразие — это всегда хорошо. Но существует огромное количество способов сделать что-то неправильно. Эту линию мысли можно проследить от Аристотеля до Толстого. Как вы знаете, «Анна Каренина» начинается так: «Все счастливые семьи похожи друг на друга, каждая несчастливая семья несчастлива по-своему». По сути, это Аристотель, потому что он говорит: успех всегда одинаков. Он сравнивает успех с попаданием стрелы в глаз быка. Но существует множество способов промахнуться, когда стрела улетает куда угодно. Так что счастье — всего лишь одно, несчастье — все остальное. И масса способов быть несчастным — это не то, чего я бы хотел.
Женское обрезание — это разнообразие? Или более низкие зарплаты женщин независимо от их квалификации? Это идиотская человеческая практика, которую мы должны прекратить как можно скорее. Означает ли это, что мы недостаточно чувствительны в плане разнообразия культур? Мне лично все равно.
Поэтому давайте будем аккуратны, когда говорим о разнообразии, различных ценностях и сообществах. Я с удовольствием поддержу разнообразие причин, по которым мы будем следовать одним и тем же ценностям. У вас могут быть свои причины считать, что женское обрезание — это плохо, но в том, что это плохо, мы оба согласимся. Я не плюралист, когда речь идет об этических ценностях: в этике может быть только одно правильное решение. Но я — плюралист в выработке политического курса для реализации этих ценностей.
— В последние несколько лет корпоративный сектор все чаще привлекает гуманитарных исследователей, чтобы разобраться в социальной роли технологий. Крупные IT-компании открывают целые департаменты R&D (research and development — научно-исследовательские подразделения в компаниях, российский аналог — НИОКР. — Ред.), в которых работают междисциплинарные команды из философов, психологов и социологов.
— Это сотрудничество началось недавно, и я его поддерживаю. Если мы имеем в виду философию в типичной корпоративной среде R&D, можно обнаружить, что люди, работающие в этой сфере, часто имеют степень по философии или ее изучали. Это простое социологическое наблюдение. Второе, на что я хотел бы обратить внимание, — взаимодействие между R&D в корпоративном мире и философской мыслью в наибольшей мере происходит тогда, когда этические, правовые и социальные проблемы оказываются на кону. И это хорошо. В тех же дискуссиях об этике искусственного интеллекта я хотел бы видеть больше взаимодействия между философской стороной и R&D.
Но я думаю, что философия никогда не ограничивалась этикой. Это наиболее широкий дискурс об основаниях нашего понимания мира. Это понимание — назовем его эпистемологическим, логическим или онтологическим — должно, несомненно, больше учитываться в сфере R&D. Возьмем, например, ситуацию, когда задача состоит в разработке удобного пользовательского интерфейса или дизайна продукта, ориентированного на пользователя. Иметь тут за столом философа-эпистемолога может быть действительно полезно.
— То есть философия может помочь с методологией?
— В самом деле, речь идет о способах мышления, понимания логики, стоящей за продуктом, или того, что в ней отсутствует, об ошибках, которых можно было бы избежать, то есть это абсолютно методологический анализ. Но философия — это и о содержании вещей, о понимании, достигнутом нами. Философия может сказать: посмотрите, вот набор ответов, которые у нас уже есть, может быть, вы хотите взглянуть? Мы уже разработали идеи, потенциально имеющие ценность, когда встает вопрос о дизайне новых сервисов, продуктов или пользовательских сред.
И я думаю, что это улица с двусторонним движением. Из личного опыта определенно могу сказать, что я научился невероятному количеству вещей из взаимодействия с R&D-командами. Если вы сидите в башне из слоновой кости, если все, что вы читаете и о чем дискутируете, — это другие философы, вы, вероятно, застряли в прошлом веке. Ведь по существу какие вопросы задает общество и на какие ему нужны ответы? Те, которые возникают перед R&D в бизнесе.
В R&D-среде присутствует неявная, укорененная эпистемология, и ей философия еще не уделила должного внимания. Она как будто развила свой собственный путь — с XIX века и далее. Это практически учебник по эпистемологии, который используют, применяют и совершенствуют, но о котором я совершенно ничего не знаю. По сути, это расширение исследовательского поля философии. Это нужно для лучшего понимания всех насущных вопросов этой новой, не отмеченной на карте территории «корпоративной эпистемологии», если позволите так выразиться.
Конечно, когда сегодня студенты говорят «философия информации», я поражаюсь, потому что помню, как придумал это выражение. Я был тогда студентом и думал: «Может быть, нам нужна философия информации». Это урок, который я получил, взаимодействуя с миром производства, исследований и разработок. Косвенным образом они уже долгое время говорили о философии информации; мы просто никогда не пересекались друг с другом.
— От публичных интеллектуалов часто требуют предсказаний будущего. Что вы думаете о таких прогнозах?
— Это важный вопрос, и, кстати говоря, сейчас я как раз заканчиваю работу, посвященную этому вопросу, то есть форсайт-анализу, если употреблять управленческий жаргон. Я думаю, это очень полезная деятельность, если правильно ей заниматься. Люди не должны гадать на кофейной гуще или по полету птиц. Но они делают прогнозы, основываясь на 50 интервью с так называемыми экспертами, с теми, кто был доступен или кто был согласен поговорить. А потом результаты отражают крайние значения. С одной стороны — калифорнийские утопические решения вроде машин с автоматизированным управлением: «Нам больше никогда не придется водить, будет каршеринг, это будет полезно для окружающей среды» и т.д. Абсолютно нереалистичные решения. А с другой стороны — катастрофические, дистопичные картины, где в результате массовых войн миром будут править роботы и искусственный интеллект.
Проблема с такими предсказаниями в том, что они вредны по меньшей мере по двум причинам. Первая — они загрязняют информационную среду. Вы не можете участвовать в адекватных разговорах на эти темы: либо вы во всем видите апокалипсис, либо вы — утопист. И поверьте мне: многие мои коллеги вынуждены играть в эту игру. Делают они это ради заголовков, славы, денег или они действительно в это верят — я не знаю.
Вторая причина состоит в том, что это самосбывающиеся пророчества. Если я скажу вам, что после какого-то действия произойдет что-то ужасное, конечно, вы не будете его совершать. А позже я вернусь и заявлю: видите, я вам говорил, ничего плохого не случилось, потому что вы перестали это делать.
Так как существует двойной риск заваливания разумных дискуссий бессмысленными рассуждениями, идея философских прогнозов и предсказаний меня слегка утомляет. Что я действительно хотел бы видеть, так это немного реализма — рациональные краткосрочные предсказания. Я бы хотел слышать от людей «в следующие пять лет», «в следующие десять лет»; я не хочу слушать о том, что будет в следующие 100. Есть ли вообще в этом какой-то смысл, что это значит? 100 лет назад никто не мог предсказать Вторую мировую войну, две атомные бомбы, сброшенные на Японию, холодную войну, убийства американских президентов, экологические катастрофы. Даже этот наш разговор по Skype был немыслим. Почему мы думаем, что сейчас мы лучше в предсказаниях, чем 100 лет назад?
Что хорошего в форсайт-аналитике и в чем могут помочь философы — так это фундаментальные проблемы.
Мне не нравится одно из качеств утопической мысли — размышления о невозможном. Они кажутся мне бессмысленными упражнениями, потому что они сами себя обозначают как невозможные. Например, утопическая мысль предлагает: представьте мир, в котором мы живем вечно. Но меня это не волнует.
Представим мир, в котором люди живут 150 лет. О'кей, это утопично, но не абсолютно невозможно. Все люди разделены в этом мире на две категории — тех, кто управляет, и тех, кем управляют. Управляемые счастливы, они играют в видеоигры, постоянно онлайн, все время смотрят фильмы на будущих версиях YouTube или Netflix. Они не особо много работают, потому что их благосостояние им позволяет так жить. Тем временем существует и контролирующий класс. Но то ли это, чего мы хотим?
Такой способ «утопического» мышления — это действительно мыслительный эксперимент. Но он не так далек от нашего мира — он дает нам направление, ориентацию. Что мне нравится в утопическом мышлении, так это то, что мы смотрим на такие идеи, чтобы лучше понимать настоящее и разрабатывать путь, по которому мы могли бы двигаться дальше. Утопическая мысль о мире, где нет неравенства, где есть образование для всех, где не имеет значения, откуда ты, уже начинает выглядеть как определенная политическая программа, а не что-то в духе «в далекой-далекой галактике…» Я не хочу потакать мышлению в стиле «Звездных войн». Я бы хотел вкладываться в возможности. А чем больше у нас возможностей, тем более вероятно, что мы можем извлечь из них плодотворные уроки. Поэтому для философов утопическое мышление — это регулятивный идеал (в кантианском смысле). Утопические размышления, выполняющие эскапистскую функцию, бесполезны. Хотя, конечно, вы можете наслаждаться ими, как и фильмом на Netflix.
ПОДПИСЫВАЙТЕСЬ НА КАНАЛ COLTA.RU В ЯНДЕКС.ДЗЕН, ЧТОБЫ НИЧЕГО НЕ ПРОПУСТИТЬ
Давайте проверим вас на птицах и арт-шарадах художника Егора Кошелева
11 марта 2022
14:52COLTA.RU заблокирована в России
3 марта 2022
17:48«Дождь» временно прекращает вещание
17:18Союз журналистов Карелии пожаловался на Роскомнадзор в Генпрокуратуру
16:32Сергей Абашин вышел из Ассоциации этнологов и антропологов России
15:36Генпрокуратура назвала экстремизмом участие в антивоенных митингах
Все новости