The Satellite Hybrid Workshop “History and Philosophy on the Computing and Algorithmic Environments” June 14th, 2024

コンピューティング・アルゴリズム環境の科学・技術史と哲学

(無料・要事前登録 Pre-Registration Required) 講演言語:英語 質疑は日本語可


科学基礎論学会大会サテライト(ハイブリッド)ワークショップ

企画協力:科学基礎論学会・日本科学史学会・国際科学史技術史・科学基礎論連合(IUHPST)/科学史技術史部門(DHST)・科学基礎論部門(DLMPST)両部門共同設置コミッションThe Inter-Division Commission for History and Philosophy of Computing (HaPoC)

プログラム・アブストラクト集を含む情報ページです (Program & Abstracts)



6/14 Hybrid Workshop: Updated Information Here · 最新情報はこちら
https://abelard.flet.keio.ac.jp/satellite-workshop_202406

6/14 Hybrid Workshop Pre-Registration by 6/13 · 事前登録6/13まで
https://forms.gle/7dGb2nkJyndX1P436

6/14 WS Poster ポスター
https://abelard.flet.keio.ac.jp/assets/poster_ja_202406.pdf


6/16 Workshop Updated Information · 6/16 ワークショップ情報
(大会事前登録6月9日締切にご注意ください)
https://abelard.flet.keio.ac.jp/HaPoc-workshop_202406

6/16 WS Poster · ポスター
https://abelard.flet.keio.ac.jp/assets/poster_en_202406.pdf




Table of Contents

1. Venue

2. Program

3. Collection of ABSTRACTS

目次

1. 会場案内

2. プログラム

3. 各講演のアブストラクトを、英語・日本語の順に記載しております


Venue:/会場案内

日時:2024年6月14日(金)、15:40 – 19:30 (JST) June 14th, 2024

会場: 早稲田大学戸山キャンパス 36号館682教室 6階
Room 682 (6th Floor), Building 36, Toyama Campus, Waseda University
https://waseda.app.box.com/s/lwwbo30xn58b1mjoahvthnmbrad5xqrm

東京メトロ早稲田駅から徒歩3分、JR高田馬場駅から徒歩20分目安
Approx. 3 min walk from Waseda St. (Tokyo Metro)
Approx. 20 min walk from Takadanobaba St. (JR)


Program / プログラム


15:40 Opening Remark

15:40 Yuri Nakao (Fujitsu Limited / The University of Tokyo): “Toward Establishing Ethical AI Based on Interaction with Humans”
     中尾悠里(富士通株式会社 / 東京大学):「人との相互作用に基づく倫理的なAIの確立に向けて」

16:05 Kazuki Maeyama (The Graduate University for Advanced Studies, SOKENDAI):
     “Transformation in Japanese Society through “Keisan”: Bridging Computation and Calculation”
     前山和喜(総合研究大学院大学):「日本における2種の計算実践と社会の変容」

16:30 Masashi Takeshita (Hokkaido University): “Speciesism and Natural Language Processing Research”
     竹下昌志(北海道大学):「種差別と自然言語処理研究」

16:55 Mana Suzuki (Independent Scholar): “Historical Study of the Dawn of Personal Computer Industry in Japan: A Case Study of NEC Corporation”
     鈴木真奈(無所属):「日本におけるパーソナルコンピュータ産業の黎明期の歴史的研究: 日本電気を事例として」

17:20 Break

17:30 Toma Kawanishi (Tokyo Institute of Technology): “Engineering a Unity of Science: Reconsidering Cybernetics as Engineering Imperialism”
     河西棟馬(東京工業大学):「工学的統一科学の構想 — 工学帝国主義としてのサイバネティクス」

17:55 Takayuki Suzuki (The University of Tokyo): “Updating Philosophy of AI”
     鈴木貴之(東京大学):「人工知能の哲学をアップデートする」

18:20 Short Break

18:25 Special Talk / 特別講演
     Henri Stephanou (Université Paris-1 Panthéon-Sorbonne, IHPST) [HaPoC]
     ステファヌ・アンリ(パリ第一大学科学技術史科学技術哲学研究所)[国際科学史技術史・科学基礎論連合]:
     (1) What is automation? Organized work processes and computer procedures
     16日の科学基礎論学会大会内ワークショップ提題講演の背景補足
     (2) Presentation of HaPoC
     上記国際科学史技術史・科学基礎論連合二部門共同設置コンピューティングの歴史と哲学に関するコミッション(HaPoC)の紹介

19:15 Discussion Session / 総合討論

19:35 Closing



See below for the Abstracts / アブストラクト集が下にあります


Scientific Organizers: Mitsuhiro Okada (Keio University), Jun Otsuka (Kyoto University) /岡田光弘 (慶應義塾大学), 大塚淳 (京都大学)

Discussion Coordinators: Mitsuhiro Okada / 岡田光弘 (慶應義塾大学)
Associate Coordinators: Kentaro Ozeki / 小関健太郎 and Risako Ando / 東里沙子 (Keio University / 慶應義塾大学)

Workshop Organizers Group : Ryo Ito (Chair), the Philosophy Course, Waseda University / 伊藤遼(議長)早稲田大学哲学コース & the Workshop Preparation Team in the Department of Philosophy / 慶應義塾大学哲学専攻内本ワークショップ準備班
(本会議の一部はKakenhi 21H00467, 23K20416 の補助を受けている。)

Contact / 問い合わせ先: logic@abelard.flet.keio.ac.jp



Abstracts / アブストラクト集(英語版のあとに日本語版アブストラクトがあります)

プログラムの講演順で掲載しています。一部の不掲載分はアブストラクトの到着次第、追加掲載いたします。

1. Yuri Nakao (Fujitsu Limited / The University of Tokyo): “Toward Establishing Ethical AI Based on Interaction with Humans”

 In today's world, research and development of responsible artificial intelligence (AI) that considers social aspects, including ethics and law, are in progress. In the discussion of responsible AI, the concepts of fairness, accountability, and transparency (collectively called FAT) in socio-technical systems have attracted attention so much that several international conferences have been established on them. On the other hand, these concepts have a variety of definitions, and it isn't easy to select a single definition for each. Additionally, considering that modern society is a system consisting of information technology and humans, it is also difficult to simply apply the discussion of ethics that has been discussed in societies comprised solely of humans to modern society. This is because ethical concepts could change as people and AI technology interact and change recursively with each other. AI technology is not static; it is a technology that personalizes itself to the preferences and behaviors of individuals and dynamically changes its output while interacting with society through data.
 In this presentation, the presenter will mention their teams' work in the field of human-computer interaction, particularly about AI fairness, e.g., the investigation of cross-country changing definitions and perceptions of fairness and perceptions of fairness that change as people interact with machine learning systems. The presenter will also mention their exploration of ways to incorporate institutional reflexivity in the field of RRI (Responsible Research and Innovation) into the development of general information technologies to make the process of technological development more open. Through these efforts, the presenter aims to contribute to achieving Verbeek's "accompanying technology" approach that transcends the ethical turn of the philosophy of technology and, moreover, to establish the "accompanying development of technology" approach.

中尾悠里(富士通株式会社 / 東京大学):「人との相互作用に基づく倫理的なAIの確立に向けて」

 近年、倫理や法を含めた社会的側面を考慮する責任ある人工知能(Responsible AI)の研究開発が進められている。責任あるAIの議論では、AI等の情報技術を含む社会技術システム(socio-technical system)における公平性(fairness)、答責性(Accountability)、透明性(Transparency)(総称してFATと呼ばれる。)が注目され、このトピックに関する国際会議の設立などがみられる。一方で、これらの概念には多様な定義が存在し、単一のやり方で定義することが困難である。さらに、現代社会が情報技術と人間からなる系であると考えると、人間のみで構成された社会において議論されてきた倫理を単純に現代社会に当てはめることも難しい。なぜなら、AI技術をシステムの中に含む社会では、人とAIが相互作用して再帰的に変化しあい、倫理的な概念も変化していく可能性があるからである。AI技術は静的なものではなく、個人の好みや行動に合わせてパーソナライズしていく技術であり、また、データを通して社会と相互作用しながら出力を動的に変えていく技術である。
 本発表では、特に公平性の問題に関して、発表者らがヒューマンコンピュータインタラクションの分野で行ってきた多国間で変化する公平性の定義・認識の研究、機械学習との相互作用で変化する公平性についての認識の研究について触れる。また、AI技術だけでなく、情報技術全般の開発にRRI(責任ある研究・イノベーション)の分野で議論されてきた制度的省察性を取り入れ、技術開発のプロセスをより開かれたものにする方法の探求についても紹介する。これらの取り組みを通じて、発表者は、フェルベークが唱える、技術哲学の倫理的展開を超克する「技術への同行」アプローチに貢献し、さらに言えば「技術開発への同行」のアプローチを確立していきたいと考えている。


2.Kazuki Maeyama (The Graduate University for Advanced Studies, SOKENDAI): “Transformation in Japanese Society through "Keisan": Bridging Computation and Calculation”

 In Japanese, the term "Keisan" encompasses a variety of practices including calculation and computation. After World War II, the introduction of computers marked the beginning of new practices referred to as "Compute". Despite this new technology, the term "Keisan" continued to be used for both computing and the traditional concept of calculation. This presentation will trace the development of the concept of Keisan in Japan, discussing perspectives on the acceptance of computers and social transformation.

前山和喜(総合研究大学院大学):「日本における2種の計算実践と社会の変容」

 日本語における「計算」は、CalculationやComputationなど多様な実践を含んでいる.戦後にコンピュータが導入されて行なわれたComputationalな計算に対しても,Calculationと同じ「計算」という語が引き続き用いられた.本発表では,日本における計算概念の展開を実践的な計算行為の変容を追うことで,コンピュータの受容と社会変容に関する視点を論じる.


3.Masashi Takeshita (Hokkaido University): “Speciesism and Natural Language Processing Research”

 Natural Language Processing (NLP) research on AI Safety and social bias in AI has focused on safety for humans and social bias against human minorities. However, some AI ethicists have argued that the moral significance of nonhuman animals has been ignored in AI research. In this presentation, I investigate whether there is speciesism, i.e., discrimination against nonhuman animals, in NLP research. First, I explain why nonhuman animals are relevant in NLP research. Next, I survey the findings of existing research on speciesism in NLP researchers, data, and models and report the findings of my own investigation. I suggest that speciesism exists within NLP researchers, data, and models, respectively. Specifically, My survey and experiments show that (a) among NLP researchers, even those who study social bias in AI, do not recognize speciesism or speciesist bias; (b) among NLP data, speciesist bias is inherent in the data annotated in the datasets used to evaluate NLP models; (c) OpenAI GPTs, recent NLP models, exhibit speciesist bias by default. Finally, I discuss how we can reduce speciesism in NLP research.

竹下昌志(北海道大学):「種差別と自然言語処理研究」

 AIセーフティとAIにおける社会的バイアスに関する自然言語処理(NLP)研究は、人間に対する安全性と人間のマイノリティに対する社会的バイアスに焦点を当てている。しかし、一部のAI倫理学者らはAI研究において非ヒト動物の道徳的重要性が無視されていると主張している。本発表では、NLP研究における種差別、すなわち非ヒト動物に対する差別について調査する。まず、NLP研究において非ヒト動物が重要である理由を説明する。次に、NLP研究者、データ、モデルにおける種差別について、既存研究の結果を概説し、さらに自身の追加の調査・実験結果を報告する。その結果、NLP研究者、データ、モデルそれぞれにおいて種差別が存在することを示唆する。具体的には、(a) NLP研究者の間では、AIの社会的バイアス研究者でさえ、種差別や種差別バイアスを認識していないこと、(b) NLPモデルを評価するために使用されるデータセットに種差別バイアスが内在していること、(c) OpenAI GPTなどのNLPモデルでは、デフォルトで種差別バイアスが存在することを示す。最後に、NLP研究における種差別を減らす方法について議論する。


4. Mana Suzuki (Independent Scholar): “Historical Study of the Dawn of Personal Computer Industry in Japan: A Case Study of NEC Corporation”

 This presentation explains the dawn of the personal computer industry in Japan, using NEC Corporation's microcomputer TK-80 and personal computer PC-8001 as examples. These devices were developed by NEC Corporation's semiconductor division. Initially, the TK-80 was an educational kit designed for engineers to develop semiconductor-based products. However, its user support and affordable price made it popular among individuals. The PC-8001 was developed in response to the demands generated by the TK-80. This indicates two key points:

1)The so-called "microcomputer boom" created a demand for personal use of computers.
2)The need for microcomputers for various purposes, whether for hobbies or work, led to the development of personal computers.

 In Japan, the consumer market for computers tailored to specific uses was larger than that for general personal computers. The markets for Japanese word processors and video game consoles expanded significantly. Japanese word processors were more suitable for handling Japanese documents, and video game consoles were better suited for gaming. Eventually, the developers of the TK-80 and PC-8001 also became involved in the development of game consoles.

鈴木真奈(無所属):「日本におけるパーソナルコンピュータ産業の黎明期の歴史的研究: 日本電気を事例として」

 本発表では、日本電気のマイコンTK-80とパソコンPC-8001を事例として日本におけるパーソナルコンピュータ産業の黎明期を論ずる。TK-80とPC-8001はNECの半導体部門によって開発された。TK-80はエンジニアが半導体を用いた製品を開発するための教育キットであったが、そのユーザーサポートと低価格により、個人にも広く受け入れられた。PC-8001はTK-80の需要に応えて開発された。このことから、次の二点が示される。

(1)いわゆる「マイクロコンピュータブーム」が個人のコンピュータへの需要を生み出したこと、および(2)趣味や仕事のためにマイコンを使用する需要が、パーソナルコンピュータの開発につながったことである。

 日本の家庭市場は、パーソナルコンピュータよりも特定の用途向けのコンピュータの方が大きかった。日本語ワードプロセッサやビデオゲームコンソールの市場が大きく拡大した。日本語ワードプロセッサは日本語の文書を扱うのにパーソナルコンピュータよりも適しており、ビデオゲーム機はゲームをするのにより適していた。TK-80とPC-8001の開発者たちは、最終的にビデオゲーム機の開発にも関与するようになった。


5. Toma Kawanishi (Tokyo Institute of Technology): “Engineering a Unity of Science: Reconsidering Cybernetics as Engineering Imperialism”

 Norbert Wiener is known as a significant figure in the cybernetics movement, which had a profound impact on various fields from the physical and biological sciences to information and social sciences in the late 20th century. In this report, I aim to examine Norbert Wiener's activities in the 1940s and emphasize how cybernetics involved blending science and engineering as an academic movement. The cybernetics movement originated from Wiener's wartime research and the development of an anti-aircraft artillery control system. During this research, Wiener conceived the idea of methodological unity between electrical (communications) engineering and mathematical statistics, and a unified ontological understanding of the diverse system when applying this methodology. After completing his wartime research, Wiener shifted his focus to the philosophical basis of the "unity" he identified in his research, leading to his own ideas that blurred the boundary between science and engineering. In the final section, I argue that his philosophy also marked a shift towards post-modernity in the history of science and technology.

河西棟馬(東京工業大学):「工学的統一科学の構想 — 工学帝国主義としてのサイバネティクス」

 ノーバート・ウィーナーは、20世紀後半に物理学・生物学から情報科学・社会科学に至る諸分野に多大な影響を与えたサイバネティクス運動の中心人物として知られている。本報告では、1940年代におけるウィーナーの活動を検証し、サイバネティクスが科学と工学の区分撤去を遂行する学問運動という一面を有していたことを指摘したい。サイバネティクス運動は、戦時中のウィーナーの研究と高射砲制御システムの開発に端を発する。この研究の中で、ウィーナーは電気(通信)工学と数理統計学の間の方法論的統一、そしてこの方法論を適用する際の多様なシステムの統一された存在論的理解というアイデアを着想した。戦時研究を終えた後、ウィーナーはこの研究の中で見出した「統一性」の哲学的基礎の探求へと焦点を移し、科学と工学の境界を曖昧にする独自の思考を展開した。彼の哲学はまた,科学技術史におけるポスト・モダン的思潮の黎明を感じさせるものでもあった。


6. Takayuki Suzuki (The University of Tokyo): “Updating Philosophy of AI”

 From 2018 to 2021, I have been a PI of the research project on philosophy of AI funded by JST/RISTEX. In this project, we have examined the possibilities and the limitations of contemporary AI, as well as the role of AI in our society. In this talk, I will report the main results of the project.

鈴木貴之(東京大学):「人工知能の哲学をアップデートする」

 2018年度から2021年度まで、私はJST/RISTEXの研究開発プロジェクト「人と情報テクノロジーの共生のための人工知能の哲学2.0の構築」の研究代表者を務めた。このプロジェクトでは、深層学習をはじめとする近年の人工知能研究の進展をふまえて、人工知能の可能性と限界、社会における人工知能の役割について哲学的な観点から検討した。本提題ではそのおもな成果を報告する。


7. Henri Stephanou (Université Paris-1 Panthéon-Sorbonne, IHPST)[HaPoC]: "What is automation? Organized work processes and computer procedures"

 This talk will provide supplementary background to the June 16th talk on "Automation and Augmentation", by diving more thoroughly on the concept of automation. Indeed, there is a deep conceptual and historical connection between the two fields of organized work and computing, beginning in the early 19th century with Charles Babbage's idea of automating the work of human computers. I will explore this parallel and show that work procedures and computational procedures can always be made equivalent through techniques of "business process modelling". Rational work can always, in principle, be automated. However, the loss of ambiguity resulting from modelling can be detrimental to the overall effectiveness of work, since ambiguity is often a resource for adaptation. The claim that AI can now effectively parse human ambiguity therefore raises interesting questions about the potential for further automation of human work.

ディスカッションコーディネータ: 岡⽥光弘
アソシエイトコーディネータ: ⼩関健太郎, 安東⾥沙⼦ (慶應義塾⼤学)
Organizing Group: 早稲⽥⼤学哲学コース伊藤遼 (Chair) 及び慶應義塾⼤学哲学専攻本会議準備班
問い合わせ先: logic@abelard.flet.keio.ac.jp
この集会は 科学研究費21H00467及び23K20416の支援を受けて開催されました。