Cerca nel blog

Choose your language:

Visualizzazione post con etichetta logica. Mostra tutti i post
Visualizzazione post con etichetta logica. Mostra tutti i post

sabato 28 aprile 2018

George Boole: un filosofo?











In questo articolo intendo sostenere una tesi particolare: la natura filosofica del pensiero di George Boole. Non intendo negare che Boole sia un matematico, ma intendo riconoscerlo anche come filosofo. Questa operazione in filosofia è di vitale importanza perché, una volta dimostrato che Boole è un filosofo, è facile poi collegare tramite la logica la filosofia con l'informatica. O meglio, è facile vedere il collegamento tra la filosofia e l'informatica come qualcosa di già esistente e che ha bisogno di essere evidenziato.


Prima di spiegare le ragioni della mia tesi, vi propongo di leggere questo breve estratto in inglese dall'articolo, apparso su The Atlantic, dal titolo: How Aristotle created the computer.


«Today, Boole’s name is well known to computer scientists (many programming languages have a basic data type called a Boolean), but in 1938 he was rarely read outside of philosophy departments. Shannon himself encountered Boole’s work in an undergraduate philosophy class. “It just happened that no one else was familiar with both fields at the same time,” he commented later. Boole is often described as a mathematician, but he saw himself as a philosopher, following in the footsteps of Aristotle.»  (source: How Aristotle created the computer)


In questo articolo l'autore difende l'idea secondo la quale il vero padre dell'informatica non sarebbe altro che un filosofo come Aristotele. Egli sostiene che non viene data giusta importanza al contributo dei filosofi allo sviluppo della logica-matematica, il quale è stato decisivo per la costruzione del computer. George Boole è uno dei più importanti protagonisti all'interno della storia   di quella logica che ha posto le basi per la costruzione successiva del computer. Di George Boole l'autore di questo articolo afferma che era un filosofo o che si considerava un filosofo, sebbene oggi chiunque lo prenderebbe semplicemente per un matematico.


Purtroppo non tutti sono d'accordo con questa visione e in molti credono che l'algebra booleana non abbia nulla a che fare con la filosofia. Uno di questi è lo scrittore Paul Nahin, il quale ha scritto un interessante libro sul legame tra la logica e l'informatica: Il logico e l'ingegnere. All'interno del libro Il logico e l'ingegnere infatti si legge:


«L'algebra booleana non è la tradizionale logica aristotelica classica comunemente insegnata nei dipartimenti di filosofia delle università. Al contrario si tratta di una materia di pertinenza dei professori di ingegneria e delle facoltà di matematica (sebbene, come è ovvio, anche i filosofi possano avere familiarità con l'argomento).» (Nahin, Paul,  Il logico e l'ingegnere, Le Scienze, Torino, 2015, p.10)


Questa affermazione contiene due errori: non tiene conto del fatto che i principi dell'algebra booleana sono gli stessi di quelli della logica classica; dimentica che George Boole, quando ha scritto Le leggi del pensiero, si ispirava proprio ad Aristotele. È ovvio che l'idea che esista un massimo e un minimo, che un enunciato è vero oppure falso e tutte le altre regole che valgono nell'algebra booleana, sono le stesse che governano nella logica classica dei filosofi. La logica classica è basata principalmente su tre principi: 1 principio di identità: ogni cosa è identica a se stessa; 2 principio di terzo escluso: o una cosa ha una certa proprietà o non l'ha; 3 non contraddizione: non può essere che una cosa ha e non ha la stessa proprietà. Se l'algebra booleana si accorda con questi tre principi, allora essa è una forma di logica in senso classico.


Veniamo al secondo punto: Boole legge Aristotele. George Boole, nel suo libro fondamentale, rivela che la formula più importante della sua algebra è x = x2. Questa formula viene poi convertita nella formula: x(1-x) = 0. Questa formula, spiega lo stesso Boole, non è altro che il principio di non contraddizione di Aristotele. Egli si ispira, e questo lo mette in una nota, nientemeno che alla Metafisica di Aristotele. Quella formula ha un significato di questo genere: se intendo per x le gazzelle e per (1 - x) tutti quegli animali che non sono le gazzelle, moltiplicare (1 - x) per la stessa x, è come dire che quegli animali che non sono gazzelle sono gazzelle. Il fatto che Boole affermi che l'enunciato sia uguale a zero significa semplicemente che l'enunciato è falso. L'enunciato è falso e lo sarà sempre, non importa cosa sostituiamo alla x, perché dice qualcosa di contraddittorio. Secondo l'algebra booleana 1 è vero e 0 è falso. Tutti gli enunciati o sono 1 o sono 0. Questo è un fatto che si accorda perfettamente con la logica classica di Aristotele e anche con quella di Frege e di tutti i filosofi. Quel che cambia sta nell'assegnazione dei numeri 1 e 0  al vero e al falso, ma oggi, in qualsiasi manuale di logica in filosofia, si fa esattamente la stessa cosa, ossia si usa quella prospettiva booleana.


Aristotele è citato più volte da parte di Boole. Viene citato da un lato perché Boole fa riferimento al principio di non contraddizione molto spesso, dall'altro perché, secondo Boole, le leggi del pensiero sono descritte nell'Organon di Aristotele. Inoltre Boole scrive proprio un capitolo dedicato ad Aristotele, nel quale interpreta in termini matematici il sillogismo.


Prima di parlare di quel famoso capitolo, capitolo che non viene menzionato da Nahin, vorrei spiegare brevemente del vero risultato a cui è giunto George Boole con il suo pensiero. George Boole  è noto per la scoperta di tre operatori che governano tutta l'algebra booleana: and, or, not. Il "not" rappresenta la negazione ed è scritto con il simbolo "-". In questo modo possiamo esprimere "non rosso" in algebra booleana con l'espressione "1 - r", la quale indica tutti quegli oggetti che non sono rossi, ossia tutti gli oggetti meno quelli rossi.


La tavola della verità dell'operatore not è la seguente:


1 - x


1 - 1 = 0


1 - 0 = 1


Il secondo operatore è l'operatore and. Se, usando l'algebra booleana, intendo scrivere un enunciato come "sono allegro e pensieroso", scriverò una formula di questo tipo "x * y ". Nell'operatore and si usa il simbolo della moltiplicazione.


La tavola dell'operatore and è la seguente:


x * y


1 * 1 = 1


0 * 1 = 0


1 * 0 = 0


0 * 0 = 0


L'ultimo operatore è l'operatore or. Se intendo scrivere un enunciato come "o piove o nevica", allora userò una formula di questo tipo: "x + y". Dunque con l'or si usa il simbolo dell'addizione. Il mio esempio è di or esclusivo, ma il "+" indica la possibilità dell'inclusione.


Anche qui troviamo una tavola apposita per l'or, che è la seguente:


x + y


1 + 1 = 1


0 + 1 = 1


1 + 0 = 1


0 + 0 = 0


Tutti questi operatori sono esprimibili tranquillamente nella logica classica che si studia in filosofia in questo modo:


 - x = ¬ x


x * y = x ∩ y


x + y = x ∪ y


La perfetta analogia e l'equivalenza tra queste forme è talmente evidente che non può essere negata. Infatti Paul Nahin la ammette con riluttanza:


«L'uso del prodotto xy per rappresentare "x e y" coincide con la notazione degli ingegneri (e di molti matematici), notazione che continuerò ad adottare all'interno di questo libro. I filosofi (e molti matematici) di solito usano il simbolo ∩ per rappresentare ciò che nella teoria degli insiemi si chiama intersezione degli insiemi A e B. A ∩ B indica gli elementi che sono in A e in B. Pertanto, per denotare 'x e y' c'è chi scriverebbe x ∩ y. A me, invece, questa notazione non piace (...)» (Nahin, Paul,  Il logico e l'ingegnere, Le Scienze, Torino, 2015, p.55)


Più avanti si legge ancora:


«Un altro connettivo logico che si usa di frequente è or. In effetti esistono due versioni di questo connettivo. Userò il simbolo dell'addizione aritmetica per denotare il cosiddetto or-inclusivo. Per esempio, scriverò x + y per intendere "tutti gli individui con gli occhi azzurri, oppure tutti quelli mancini, oppure tutti quelli con gli azzurri e mancini." (...) I filosofi usano il simbolo ∪ (altro simbolo di quelli che a me non piacciono) per rappresentare l'operazione insiemistica dell'unione (...)» (Nahin, Paul,  Il logico e l'ingegnere, Le Scienze, Torino, 2015, p.56)


Detto ciò, a questo punto, possiamo rivolgere la nostra attenzione al capitolo che ha dedicato Boole proprio alla filosofia: ad Aristotele. Si tratta del capitolo XV. Boole riconosce nel sillogismo il tipo universale del ragionamento e lo scopo del ragionare. Boole lavora sui classici enunciati studiati nella scolastica:


Universale affermativo: tutti gli S sono P.


Universale negativo: nessun S è P.


Particolare affermativo: alcuni S sono P.


Particolare negativo: alcuni S non sono P.


Si noti che negando l'universale affermativo si ottiene il particolare negativo e negando l'universale negativo si ottiene il particolare affermativo. George Boole riesce a trasformare tutti questi enunciati in termini matematici in questo modo:


Universale affermativo: y = vx.


Universale negativo: y = v(1 − x).


Particolare affermativo: vy = vx.


Particolare negativo: vy = v(1 − x).


L'universale affermativo scritto in quella forma significa che gli y corrispondono ad una parte degli x. Se tutti i pipistrelli sono dei mammiferi, allora i pipistrelli (y) corrispondono ad una parte (v) dei mammiferi (x). L'universale negativo, per come lo esprime Boole, significa che gli y corrispondono a quella parte del totale che non è gli x. Se le rondini non sono dei rettili è perché le rondini (y) corrispondono a quella parte (v) del totale (1) che non è rettile (- x). La particolare affermativa significa che quella parte di elementi con caratteristica x è identica a quella parte con caratteristica y. La particolare negativa significa l'esatto contrario, ossia che quella parte degli elementi con proprietà y è identica a quella parte degli elementi che non hanno la proprietà y.


Il sillogismo di Aristotele vero e proprio riprende gli schemi degli enunciati che ho preso in considerazione fino ad ora, ma ha una struttura molto particolare. Nel sillogismo troviamo due premesse e una conclusione. Il sillogismo permette di passare dall'universale al particolare, riuscendo ad applicare una regola generale ad un particolare e mostrando come questo ricada sotto quella regola, poste certe condizioni. Ogni enunciato è fatto di soggetto (es. la palla) e un predicato (es. rossa). Le due premesse contengono un termine medio che permette di passare dalle premesse alla conclusione.


Un esempio classico di sillogismo è il seguente:


1 Tutti gli uomini sono mortali


2 Socrate è un uomo


3 Socrate è mortale


Qui "uomo" funge da termine medio. Il primo enunciato è un universale affermativo, gli altri due sono dei particolari affermativi. George Boole trasforma in termini matematici il sillogismo in questo modo:


x = vy


y = vv'z


x = vv'z


Questa trasformazione, in realtà, ha poca relazione con il mio esempio. Infatti Boole usa come sillogismo il seguente:


1 Tutti gli x sono y.


2 Tutti gli y sono z.


3 Tutti gli x sono z.




Ora è assolutamente evidente che qualsiasi contrapposizione tra la logica di George Boole e quella di Aristotele risulta completamente falsa e fuori luogo. Questa nasce, probabilmente, solo da chi non intende riconoscere come padri della logica matematica i filosofi. Tuttavia, una volta riconosciuto il problema, rimane ancora una questione: come mai non studia veramente George Boole nelle lezioni di filosofia universitarie?

sabato 10 marzo 2018

Tecnologia filosofica: logica ed elettronica











In questo testo intendo parlare dei circuiti logici e della logica booleana per arrivare a spiegare come funziona un relè di Claude Shannon. La logica dei filosofi è nel computer, il computer funziona con un meccanismo che segue le dinamiche della logica. Questo significa che in un certo settore tecnologico come l'informatica le teorie della filosofia sono state tradotte in tecnica. Per questo si può parlare effettivamente di tecnologia filosofica, anche se non è il filosofo che ha costruito quella tecnologia. Si dice tecnologia filosofica perché è stata pensata a partire da modelli filosofici.

George Boole è un importante matematico, il matematico al quale viene riconosciuta la definizione della logica come matematica. Boole, tuttavia, non era solo qualcuno che si interessava di matematica, ma leggeva anche i filosofi, in particolare Aristotele e la sua logica. La sua opera più importante porta come titolo: An investigation of the laws of thougth on which are founded the mathematical theories of logic and probabilities. L'opera tratta delle leggi della mente e del pensiero, ponendosi come fine quello di illustrare la natura matematica della logica. Il linguaggio, secondo Boole, è uno strumento di cui l'uomo si serve. Il linguaggio è fatto di simboli e i simboli sono arbitrari. Boole arriva a comprendere quel dirà più avanti de Saussure, ossia che il segno è arbitrario. Questo significa che non c'è una relazione necessaria tra la parola (significante) e l'immagine mentale (significato). In pratica potremmo usare la parola "albero" per riferirla a qualcos'altro, proprio perché non c'è un legame necessario tra la parola "albero" e l'immagine mentale che noi gli facciamo corrispondere. Tuttavia, afferma Boole, il segno ha un'interpretazione fissata. Il segno è l'unità minima del linguaggio e di segni, secondo Boole, ne esistono di tre tipi:

1) simboli con lettere: x, y, z, ecc.

2) segni di operazione: +, -, ·, ecc.

3) segno dell'identità: =

Boole usa il primo tipo di simboli per indicare i nomi o gli aggettivi. I nomi possono essere comuni o propri, non ha importanza. In questo modo posso scrivere x = volpe oppure y = rosso. Posso anche combinare i simboli come in un prodotto e scrivere xy = volpe rossa. Posso aggiungere altri aggettivi come z = astuta e scrivere xyz = volpe rossa astuta. Boole osserva questo: se x = y, allora xy = yx, in quanto xy = xx e xx = yx. Questo ovviamente solo nel caso in cui i termini x e y abbiano lo stesso significato e dunque siano intercambiabili. Funziona come nella moltiplicazione, laddove 4 · 2 = 2 · 4.

Il secondo tipo di simboli corrisponde agli operatori dell'algebra booleana: and, or, not.

1) L'operatore And (e) è espresso da Boole attraverso il simbolo della moltiplicazione (·). Se intendo scrivere "i leoni e le giraffe", scriverò una formula di questo tipo: x · y.

2) L'operatore Or (o) è espresso da Boole attraverso il simbolo dell'addizione (+). Se intendo scrivere "o piove o nevica", scriverò una formula di questo tipo: x + y.

3) L'operatore Not (non) è espresso da Boole attraverso il simbolo della sottrazione. Se intendo scrivere "tutti gli uccelli che non sono gabbiani", scriverò una formula di questo tipo: y(1 - x).

Tutti questi operatori corrispondono ai connettivi logici ∧, v, ⌐.   Corrispettivamente: x · y = x ∧ y,   x + y = x v y.

La vera scoperta di Boole nell'ambito della logica e della matematica consiste nella rappresentazione del vero e del falso attraverso due numeri: 1 e 0. Vero = 1 e falso = 0. A partire da questo Boole deriva la più importante equazione della sua algebra: il principio di non contraddizione. Il principio di non contraddizione è stato ripreso apertamente da Boole da Aristotele. Boole trova che il principio di non contraddizione segue questa formula: x = x2  oppure x - x2  =  0. Questa formula può essere espressa in quest'altro modo: x(1 - x) = 0. Se intendiamo con la formula "1 - x" un enunciato come "tutti gli animali della savana meno i leoni" e per x "leoni", moltiplicando il primo enunciato per la proprietà x si genera una contraddizione, per questo è falso. Infatti tutti gli animali della savana meno i leoni non potranno mai avere la proprietà di essere dei leoni.

Con i numeri 1 e 0, applicati agli operatori (and, or, not), Boole scopre gli elementi per la costruzione delle tavole della verità, le quali verranno successivamente definite dal filosofo Wittgenstein.

La tavola della verità dell'operatore and si ricava in questo modo:

x · y

se x = 0 e y = 0, allora 0 · 0 = 0

se x = 1 e y = 0, allora 1 · 0 = 0

se x = 0 e y = 1, allora 0 · 1 = 0

se x = 1 e y = 1, allora 1 · 1 = 1

La tavola della verità dell'operatore or si ricava in questo modo:

x + y

se x = 0 e y = 0, allora 0 + 0 = 0

se x = 1 e y = 0, allora 1 + 0 = 1

se x = 0 e y = 1, allora 0 + 1 = 1

se x = 1 e y = 1, allora 1 + 1 = 1 (Si guardi più avanti l'esistenza del minimo e del massimo)


La tavola di verità dell'operatore not si ricava in questo modo:

1 - x

se x = 0, allora 1 - 0 = 1

se x = 1, allora 1 - 1 = 0

Oltre a questo nell'algebra di Boole esistono alcune proprietà fondamentali. Le principali sono le seguenti:

Proprietà commutativa: x + y = y + x;  x - y = y - x

Proprietà associativa: x + (y + z) = (x + y) + z; x - (y - z) = (x - y) - z

Proprietà distributiva: x - (y + z) = (x - y) + (x - z); x + (y - z) = (x + y) - (x + z)

Esistenza di un minimo e di un massimo: x - 0 = 0; x + 1 = 1

A questo punto abbiamo tutti gli elementi per incominciare a studiare come funzionano i circuiti booleani. I circuiti logici sono basati sugli operatori dell'algebra di Boole (and, or, not) e altri (xor, nand, nor). Vediamoli uno alla volta con le porte e le uscite.

And ha due ingressi e una sola uscita.













Se ingresso A = 0 e ingresso B = 0, allora l'uscita sarà = 0

Se ingresso A = 1 e ingresso B = 0, allora l'uscita sarà = 0

Se ingresso A = 0 e ingresso B = 1, allora l'uscita sarà = 0

Se ingresso A = 1 e ingresso B = 1, allora l'uscita sarà = 1

Or ha due ingressi e una sola uscita.
















Se ingresso A = 0 e ingresso B = 0, allora l'uscita sarà = 0

Se ingresso A = 1 e ingresso B = 0, allora l'uscita sarà = 1

Se ingresso A = 0 e ingresso B = 1, allora l'uscita sarà = 1

Se ingresso A = 1 e ingresso B = 1, allora l'uscita sarà = 1



Not ha un solo ingresso e una sola uscita.














Se ingresso = 1, allora l'uscita sarà = 0

Se ingresso = 0, allora l'uscita sarà = 1



Agli operatori di Boole si aggiungono altri tre elementi:


Nand è composto da Not e And.













Se ingresso A = 0 e ingresso B = 0, allora l'uscita sarà = 1

Se ingresso A = 1 e ingresso B = 0, allora l'uscita sarà = 1

Se ingresso A = 0 e ingresso B = 1, allora l'uscita sarà = 1

Se ingresso A = 1 e ingresso B = 1, allora l'uscita sarà = 0

Nor è ottenuto connettendo Or e Not.













Se ingresso A = 0 e ingresso B = 0, allora l'uscita sarà = 1

Se ingresso A = 1 e ingresso B = 0, allora l'uscita sarà = 0

Se ingresso A = 0 e ingresso B = 1, allora l'uscita sarà = 0

Se ingresso A = 1 e ingresso B = 1, allora l'uscita sarà = 0


xOr















Se ingresso A = 0 e ingresso B = 0, allora l'uscita sarà = 0

Se ingresso A = 1 e ingresso B = 0, allora l'uscita sarà = 1

Se ingresso A = 0 e ingresso B = 1, allora l'uscita sarà = 1

Se ingresso A = 1 e ingresso B = 1, allora l'uscita sarà = 0

Tutti questi sono circuiti logici che corrispondo a tabelle della verità, dello stesso tipo di quelle che si studiano in filosofia. Giocando con i termini (and, or, not) si possono costruire circuiti sempre più complessi e divertirsi a edificare circuiti che rappresentano tavole della verità. Un modo per farlo è usare il programma Logisism. Con questo programma si può molto facilmente costruire circuiti logici e sperimentarne di nuovi. Se gli operatori della logica booleana sono and, or e not, dal punto di vista della logica classica, qui manca il condizionale (⊃). Tuttavia è possibile ricavarlo combinando i simboli di Boole in questo modo: mettendo tre not connessi a due and, aggiungendo un and e collegando tutti gli and con un or.


















Se ingresso A = 0 e ingresso B = 0, allora l'uscita sarà = 1

Se ingresso A = 1 e ingresso B = 0, allora l'uscita sarà = 0

Se ingresso A = 0 e ingresso B = 1, allora l'uscita sarà = 1

Se ingresso A = 1 e ingresso B = 1, allora l'uscita sarà = 1

Questa è la tavola della verità del condizionale, infatti è vera sempre quando o l'antecedente è falso o quando sia la conclusione che l'antecedente sono veri, mentre è falsa quando l'antecedente è vero e la conclusione falsa. Esattamente come nella logica che si usa in filosofia.

È possibile scrivere circuiti ancora più complessi come questo:



















A questo punto si può passare al relay (relé) di Claude Shannon. Shannon ha scritto un importante articolo sul tema dal titolo: A symbolic analisis of relay and switching circuits. Il testo tratta della logica booleana e dell'applicazione di questa ai circuiti elettrici. Shannon dichiara di prendere in considerazione solamente i contatti e gli interruttori dei relè. Dati due terminali (a, b) il circuito può essere aperto o chiuso. Qui tornano i numeri dell'algebra booleana: 1 e 0. Se il circuito è chiuso, prendendo X come termine che associa i terminali a e b, X (ab) = 0. Se il circuito è aperto, allora  X (ab) = 1. La relazione dei terminali a e b in X è espressa da Shannon con questa figura:













X (ab) è definito da Shannon come hindrance (resistenza o ostacolo). È possibile addizionare due terminali di circuiti, in questo caso si ottiene: X(ab) + X(cd). Questo sistema funziona esattamente come con la somma nel calcolo booleano o con la tavola della verità della disgiunzione in Wittgenstein.

X(ab) + X(cd)

se X(ab) = 0 e X(cd) = 0, allora 0 + 0 = 0

se X(ab) = 1 e X(cd) = 0, allora 1 + 0 = 1

se X(ab) = 0 e X(cd) = 1, allora 0 + 1 = 1

se X(ab) = 1 e X(cd) = 1, allora 1 + 1 = 1

Shannon esprime questa relazione con questa figura:












Inoltre è possibile moltiplicare i terminali in questo modo: X(ab) · X(cd). Anche in questo caso il meccanismo della moltiplicazione funziona come con il calcolo booleano o con la tavola della verità della congiunzione di Wittgenstein.

X(ab) · X(cd)

se X(ab) = 0 e X(cd) = 0, allora 0 · 0 = 0

se X(ab) = 1 e X(cd) = 0, allora 1 · 0 = 0

se X(ab) = 0 e X(cd) = 1, allora 0 · 1 = 0

se X(ab) = 1 e X(cd) = 1, allora 1 · 1 = 1

I circuiti nel caso della moltiplicazione sono connessi in parallelo, come mostra la figura:








Claude Shannon considera tutti i teoremi della logica booleana (commutativo, associativo, ecc.), ma sono cose che ho già spiegato. Rivediamo per il momento il significato dei primi simboli introdotti:

Terminali: a, b, c, d, ecc.

Circuiti: X, Y, Z, ecc.

Circuito aperto = 1

Circuito chiuso = 0

X(ab) + X(cd) = serie connessione circuiti X(ab) e X(cd).

X(ab) · X(cd) = parallelo connessione circuiti X(ab) e X(cd).

"="  = circuito aperto e chiuso simultaneamente.

X' = il circuito aperto quando X è chiuso.

A questo punto Claude Shannon passa all'analisi della legge di De Morgan. Per chi ha studiato filosofia probabilmente sarà abituato a vedere questa legge espressa in questi due modi:

1) ⌐ (α ∧ β) ↔ (⌐ α  v ⌐ β)

2) (⌐ α ∧ ⌐ β) ↔  ⌐ (α  v β)

Shannon segue la linea della logica booleana e perciò scrive la legge di De Morgan in questi due modi:

1) (X · Y · Z ·...)' = (X' + Y' + Z' +...)

2) (X' · Y' · Z' ·...) = (X + Y + Z +...)'

Shannon incomincia un'analisi delle funzioni usando la serie di Taylor fino a reimpostare la legge di De Morgan in termini di funzioni. A questo punto si danno queste due espressioni:

1) f(X · Y · Z ·...)' = f(X' + Y' + Z' +...)

2) f(X' · Y' · Z' ·...) = f(X + Y + Z +...)'

Prendendo una funzione qualsiasi, è possibile esprimere il negativo di una qualsiasi funzione. È sufficiente sostituire i termini negativi ('), le addizioni per le moltiplicazioni e le moltiplicazioni per le addizioni. Un esempio suo: X + Y · (Z + WX') diventa X' [Y' + (Z' (W' + X))]. 

Shannon distingue le variabili dipendenti (es. x, y, z, ecc.) da quelle indipendenti (es. A, B, C, ecc.), nelle variabili dipendenti inserisce i relè. I principi che ho presentato precedentemente Shannon li applica a circuiti più complessi come il seguente:



















È facile qui riconoscere tra i terminali operazioni di somma e moltiplicazione. Questo circuito è ottenuto a partire dalle seguenti equazioni:

W = A + B + (C · W)

X = A + B + (W · X)

Y = A + (C · Y)

 Z = (E · Z) + F

Ci sono altri tipi di circuiti come il circuito selettivo. Shannon studia l'equazione di questi circuiti usando la legge di De Morgan. Un esempio suo è costruito a partire da questa equazione:

U = wxyz + w' x' yz + w' xy' z + w' xyz' + wx' y' z + wx' yz' + wxy' z'

x' rispetto ad x è il circuito che ha la seguente caratteristica, se x = 0, allora x' = 1, mentre se x = 1, allora x' = 0. La stessa cosa vale per gli altri (y e y', w e w', ecc.). Il circuito corrispondente è il seguente:


















Questo circuito, utilizzando la funzione simmetrica, può essere rappresentato da questa formula:

U = S1,2,3(w, x, y, z)

Shannon definisce la funzione simmetrica come un funzione dove, date le variabili X1, X2, X3,...Xn,  ogni scambio delle variabili lascia immutata la funzione. L'equazione con la funzione simmetrica dà origine al seguente circuito:










Un circuito deve essere serie-parallelo perché segua le regole della logica, in particolare dell'algebra booleana, altrimenti non può essere analizzato in questo modo. Tuttavia, quando ci si trova di fronte a circuiti che non sono serie-paralleli, è possibile trasformarli in serie-paralleli. Un esempio di circuito non serie-parallelo è il seguente:







La parte più interessante di tutto questo è che questo tipo di circuiti sono parte fondamentale del computer e giocano un ruolo molto importante nel suo funzionamento. Prendendo consapevolezza del fatto che questi circuiti seguono le leggi della logica, si comprende in che modo la filosofia o la logica dei filosofi sia attivamente presente all'interno del computer. Questo, in ogni caso, è solo un aspetto dell'utilizzo del codice binario e degli operatori logici della logica filosofica. Questi meccanismi in informatica sono usanti anche in altri ambiti come la programmazione software.

sabato 3 febbraio 2018

L'avvenire della filosofia è nell'informatica








Negli ultimi anni nella filosofia sono aumentati i campi di studio (neuroscienze, biologia, fisica, mondo sociale, ecc.). Uno degli ambiti più interessanti è l'informatica. Questo ambito aprirebbe sbocchi molto significativi in filosofia non solo nel settore della ricerca, ma anche e soprattutto in quello della tecnologia. In questo breve testo ho intenzione di incominciare a individuare tutti gli ambiti possibili dell'informatica in cui la filosofia potrebbe inserirsi. Del resto, come spiegherò più avanti, è l'informatica stessa ad essersi già interessata di filosofia in tempi recenti. Quando avevo seguito il corso di informatica ricordo che il professore, sapendo che aveva di fronte un pubblico di studenti di filosofia, aveva tentato di avvicinarsi alle nostre tematiche e lo aveva fatto incominciando a parlare di temi di etica in ambito informatico. In effetti se si dovesse pensare un collegamento tra la filosofia e l'informatica la prima cosa che verrebbe in mente è l'etica. Gli esempi di casi che coinvolgono l'etica nell'informatica sono moltissimi: il famosissimo caso Snowden; i video di violenze che girano sui social network; i problemi di privacy rispetto ai dati; il problema della tutela della proprietà intellettuale nel mondo digitale (temi di informatica giuridica e filosofia del diritto). In filosofia ci sono molte teorie sull'etica, il materiale non manca. A dire il vero esiste anche una branca dell'etica che si occupa proprio di temi informatici. Il creatore di questa branca è un filosofo italiano che è andato ad insegnare in Inghilterra, il suo nome è Luciano Floridi. Tuttavia quella dell'etica è solo una delle tante branche della filosofia che è applicabile all'informatica, ce ne sono molte altre: ontologia, epistemologia, estetica, filosofia del diritto, ecc.

Il destino della filosofia ha incrociato abbastanza spesso quello dell'informatica. In passato ho sostenuto che la filosofia è matematica. Il modo più semplice per sostenere una tesi del genere è farlo a partire dalla logica. Lo stesso Aristotele conferma la mia tesi in un passaggio della Metafisica quando scrive:

«Il filosofo è come quello che di solito si chiama matematico, e la matematica ha parti, perché in essa c'è una scienza prima, una seconda, e altre successive.» (Aristotele, Metafisica, Utet, Torino, 2005, p.266)

Non è un caso che cito Aristotele! Aristotele è il vero filosofo dell'informatica. Spero che in questo testo riuscirò a convincervene. Nella rivista americana The Atlantic è comparso un articolo dal titolo How Aristotle created the computer. Secondo l'articolo la creazione del computer va pensata come una storia delle idee che vengono dal campo della logica. La logica matematica è stata sviluppata più recentemente da Boole e Frege, ma il vero padre della logica rimane sempre Aristotele. Mentre la logica aristotelica compie i primi passi verso la formalizzazione, ma rimane sempre sul piano della metafisica, la logica booleana è il primo modello vero di logica matematica. L'articolo sottolinea il fatto che nello spiegare la storia della nascita del computer si fanno molti elogi a Shannon e a Turing, ossia a chi materialmente ha ideato il computer, ma spesso ci si dimentica della storia della logica nella filosofia che ha dato un altrettanto importante contributo alla creazione del computer. In realtà Alan Turing è soprattutto un logico, un logico che, assieme ad Alonzo Curch, ha dimostrato l'indecidibilità della logica predicativa, ossia di quella logica formale che era stata inventata proprio dal filosofo Frege. Frege aveva realizzato il sogno di Leibniz del linguaggio universale per tutte le scienze e soprattutto era il primo ad aver formalizzato i quantificatori. Chi ha scoperto i quantificatori? Aristotele li ha scoperti. Aristotele è famoso per il suo sillogismo, un algoritmo che permette di passare dal generale al particolare. Esempio classico: tutti gli uomini sono mortali; Socrate è un uomo; Socrate è mortale. L'articolo riflette molto sull'influenza che ha avuto Aristotele sul matematico Boole. Boole in Laws of Thought ha formalizzato l'enunciato generale di Aristotele in questo modo: tutto ciò che è dell'insieme x (uomo) è anche dell'insieme y (mortale). Questo si scrive secondo Boole nel seguente modo: x = x * y. Claude Shannon usò la logica di Boole per creare circuiti elettrici. Questo fu anche il tema della sua tesi, tesi che si intitola Un'analisi simbolica dei relè e dei circuiti. Le tecnologie di Shannon, come spiegano nell'articolo, ora sono tecnologie che troviamo ovunque in informatica, anche in un moderno iPhone della Apple. Per capire come è veramente nato il computer, tuttavia, bisogna rivolgersi piuttosto ad Alan Turing e alla sua grande scoperta: l'indecidibilità della logica predicativa. Si dice decidibile un linguaggio della logica quando è possibile dire per ogni formula se questa formula è valida oppure no. La validità è espressa nella logica nei termini della conseguenza logica e una formula è conseguenza logica di un insieme di formule in logica se e solo se è impossibile che ciò che soddisfa tutte le formule dell'insieme non soddisfi anche quella formula. Quello che ha provato Turing è che non c'è un metodo per dimostrare che un dato argomento è valido, ossia che una certa formula è soddisfatta se e solo se appartiene ad un dato insieme di formule logiche. Il problema parte da un quesito di David Hilbert ed è noto come Entscheidungproblem (problema della decisione). Hilbert lo aveva pensato per la matematica, ossia si chiedeva se esistesse un algoritmo per dimostrare che un certo enunciato della matematica è vero oppure che è falso. La così detta macchina di Turing è stata pensata prima di tutto per risolvere un problema di questo tipo. Nell'articolo si dice che Alan Turing è stato il primo a pensare che motori, programmi e dati potessero lavorare assieme. Il primo computer che sfrutta il modello di Turing è l'ACE (Automatic Computing Engine). In sintesi l'articolo sostiene lo statuto di filosofo dell'informatica di Aristotele a partire dagli studi di Aristotele sulla logica. Come ho detto, del resto, il computer funziona anche grazie ad una tecnologia ispirata alla logica matematica, una tecnologia filosofica. Si noti, inoltre, come nella programmazione di fatto si fa molto uso della logica classica e del successo che ha avuto una teoria filosofica, come la teoria dei tipi di Bertrand Russell, all'interno della programmazione informatica.

Il legame tra la logica e l'informatica è molto stretto, ma non credo che l'uso di Aristotele in informatica finisca qui. Ho detto che oggi gli informatici sono molto interessati alla filosofia e questo riguarda soprattutto l'ontologia informatica. Si potrebbe pensare che l'ontologia informatica, dato che l'ontologia è una branca della filosofia, sia una branca della filosofia. In realtà è come un regno di mezzo che congiunge le due materie, dato che gli informatici stessi si interessano del tema. L'ontologia, per come la usano gli informatici, consiste in un gigantesco catalogo di ogni cosa. Spesso è usata per settori come il web o le banche dati. Il problema si capisce molto bene con un esempio di questo tipo: la divisione in cartelle e la distribuzione dei file. Prendo una cartella e la chiamo pdf, supponendo di metterci dentro tutti i libri con quella estensione. Pdf funziona come fosse un genere assoluto, genere sotto il quale ricadono tutte le tipologie di libri che metto nella cartella. Poi nella cartella apro altre cartelle scrivendo i nomi delle specie dei libri: filosofia, informatica, letteratura, storia, fisica, ecc. Nelle singole cartelle metterò altre cartelle con i nomi di autori, per esempio sotto filosofia posso mettere le cartelle: Gottlob Frege, Henri Bergson, Bertrand Russell, Jaques Derrida, ecc. In ogni cartella metto i libri che possiedo relativamente ad ogni autore. Con questo lavoro ho fatto una completa classificazione di tutti i miei file. Questo è quello che intendono gli informatici per ontologia. Chiaramente l'informatico non lo usa tanto per le cartelle, ma per le banche dati piuttosto o altro ancora. Questa accezione del termine ontologia, che non è l'unica, è stata creata dai filosofi. È un grande vecchio sogno dei filosofi quello di trovare un modo per classificare tutto ciò che esiste. Uno dei primi a farlo è stato proprio Aristotele nella sua Metafisica. Questa accezione di ontologia è riscontrabile nel metodo aristotelico della dialettica. Aristotele distingueva il genere dalla specie. Pdf è sicuramente il genere che accomuna tutti i file che hanno quella estensione. Dal momento che non tutti i file pdf sono identici, ve ne devono essere di molteplici specie. Allo stesso modo Aristotele diceva che l'animale è il genere che è comune sia all'uomo che al procione, solamente che il procione non è un animale razionale, ossia non appartiene alla stessa specie dell'uomo. Il problema consiste nel trovare i generi sommi e poi cominciare una divisione. I generi sommi secondo Aristotele sono le categorie. In generale Aristotele usava un metodo di divisione che segue la logica della non contraddizione. Per esempio il genere animale si divide in animali razionali e animali non razionali. Questo permette di generare un albero nel quale non ci sono rombi, ossia non ci sono elementi o sottospecie che ricadano contemporaneamente sotto categorie opposte. Questo problema della classificazione ha continuato a tormentare i filosofi anche dopo Aristotele fino a filosofi come John Wilkins e Roderick Chisholm. È degno di nota il fatto che gli informatici abbiano costruito un linguaggio di programmazione specifico proprio per l'ontologia, il linguaggio si chiama OWL (web ontology language).

Le meraviglie del pensiero di Aristotele non finiscono qua: la logica aristotelica esprime la prima forma di ragionamento deduttivo. È su questa forma di ragionamento che si basa l'intelligenza artificiale. Il computer è programmato per seguire determinate regole (generale) e quando si presenta un caso (particolare) che ricade sotto quella regola, la regola viene applicata. La filosofia è una grande scommessa sulla ragione e su come la razionalità giochi un ruolo essenziale nell'emancipazione dell'uomo e nel progresso. Con l'evolversi dell'informatica le macchine sono diventate sempre più complesse fino ai moderni robot. Il computer è nato come un calcolatore, perciò sorge una domanda spontanea: i computer e i robot hanno la ragione o almeno un modello un modello di razionalità strumentale? Il computer Deep Blue della IBM ha battuto il campione mondiale di scacchi, che conseguenze dobbiamo trarre da questo? che è stato più intelligente? Lo studio della robotica e dell'intelligenza artificiale è oramai entrato da parecchi anni nel dominio della filosofia. Inizialmente soltanto i filosofi analitici si interessavano del tema, ora anche alcuni continentali cominciano scrivere su questi argomenti. Nella filosofia analitica gli autori più interessanti sono Hilary Putnam, John Searle e Hubert Dreyfus. Putnam ha scritto in Mente, linguaggio e realtà alcuni capitoli sul rapporto tra la mente umana e i computer, con un particolare interesse per la macchina di Turing. Searle è famoso per l'esperimento della camera cinese, con il quale il filosofo intendeva dimostrare che il computer, a differenza dell'uomo, non è capace di conoscenza nel vero senso della parola. Hubert Dreyfus ha scritto un importante libro sul tema dei computer dal titolo: Che cosa non possono fare i computer. Dreyfus sostiene che l'intelligenza dei computer è diversa da quella umana. Mentre il computer segue semplicemente il ragionamento logico-deduttivo, l'uomo è capace di intuizioni e quando ha acquisito molto bene delle regole, non ha più bisogno di ricordarsele. Nella filosofia continentale ad interessarsi di intelligenza artificiale sono principalmente due autori: Steven Shaviro e Manuel De Landa. Shaviro ha scritto il testo Discognition in cui studia il pensiero umano e quello del robot. De Landa invece ha scritto un interessante libro sull'impiego dell'intelligenza artificiale in ambito militare (La guerra nell'era della macchine intelligenti) e un libro sul tema del cervello (Philosophy and Simulation: the emergence of synthetic reason) con un interesse per la teoria computazionale. Lo studio comparato della mente umana e dell'intelligenza dei robot è un settore che interessa vari ambiti della filosofia come la fenomenologia, la filosofia della mente e la neurofilosofia.

L'ontologia potrebbe interessarsi di moltissimi altri oggetti. Aristotele afferma che l'uomo è un animale sociale. Anche quando l'uomo è solo nella sua camera al computer si connette con gli amici e chatta. Oggi molta della realtà sociale è come se fosse trasferita su internet. L'ontologia sociale potrebbe studiare ed interessarsi anche dei social network. De Landa, ad esempio, ha dedicato una parte del suo libro sull'ontologia sociale a questo tema. Inoltre, dopo la svolta continentale dell'ontologia orientata all'oggetto e l'ontologia applicata degli analitici, lo spazio di studio sull'informatica potrebbe estendersi a qualsiasi oggetto. Così potrebbero nascere domande come: che cos'è ontologicamente un sito web? Come nascono gli oggetti nel web of things? Si potrebbe andare ancora oltre studiando proprio i meccanismi che stanno alla base di tutto il computer, è quello che sembra fare un libro come The logic of the digital di Aden Evens. Questo solo per quanto riguarda l'ontologia, ma ci sono ancora altre branche della filosofia come l'estetica. È possibile scrivere l'estetica della foto digitale o usare l'estetica come branca per studiare la grafica? Deve esserci un modo. Sono molti gli ambiti dell'informatica in cui la filosofia potrebbe introdursi e siamo solo all'inizio del viaggio.





domenica 10 gennaio 2016

Analitica trascendentale, p I (critica della ragion pura, Kant)








Abbiamo visto nell'analitica la facoltà della sensibilità con le sue condizioni a priori. La facoltà della sensibilità ci da intuizioni che non sono altro che  i dati che vengono dagli oggetti esterni e quindi producono delle modificazioni nei nostri sensi. Noi conosciamo il mondo solo come insieme di fenomeni, non conosciamo il mondo, ma solo i fenomeni in esso. Questi fenomeni sono le cose così come ci appaiono. Quelle sensazioni che noi abbiamo provengono dai 5 sensi, ma non costituiscono ancora una vera percezione, in quanto dovranno essere unificate successivamente dalla sintesi dell'immaginazione. Queste intuizioni possono essere pure o empiriche, nel primo caso si parla delle condizioni a priori della sensibilità: spazio e tempo, che sono pure intuizioni vuote; nel secondo caso di parla di intuizioni che si riferiscono davvero a dati empirici. Adesso parlando dell'analitica si affronterà la questione dell'intelletto. L'intelletto ha per oggetto i concetti, ma anche i concetti possono essere puri, in qual caso si parla delle categorie dell'intelletto, oppure possono essere empirici. I concetti puri sono vuoti, come è vero che i concetti senza intuizioni sono vuoti, questo li rende diversi dai concetti empirici che concetti con intuizioni. Ma le intuizioni senza i concetti sono cieche e questo vuol dire non solo che dopo tutto Kant da ragione sia al razionalismo e che all'empirismo, dicendo che la conoscenza comincia con l'esperienza, ma non finisce con questa, vuol dire anche che non si da conoscenza che non sia quella che si riferisce all'esperienza. In questo senso, oltre a far cadere ogni forma di conoscenza che non si basi sull'esperienza come la metafisica, sta dicendo che quelle che categorie o concetti vuoti, di cui parlerò meglio più avanti, non hanno altra applicazione che non sia quella alle intuizioni, in quanto la sostanza o si riferisce ad un oggetto che abbiamo visto, come quel qualcosa che permane di quell'oggetto nonostante i suoi mutamenti, o non è nulla e vi sono altre sostanze oltre a questa. L'Analitica è preceduta da una Logica trascendentale, la logica non è unica, ne esistono di vario tipo: c'è una logica generale, una logica applicata e poi c'è la dialettica. La logica generale è puramente formale, la logica applicata è psicologica, la dialettica, per cui Kant a poca considerazione, non sarebbe altro che vuol ragionare vuoto dei sofisti che però pretenderebbe di avere un qualche contenuto. Secondo Kant la logica non ha fatto nessun passo avanti dai tempi di Aristotele a lui, essa è sempre la stessa invariata. La logica di Aristotele, che è quella classica, ha tre principi: A=A (principio dell'identità), A v ~ A (principio del terzo escluso), ~(A & ~A) (principio di non contraddizione). I giudizi sono pensati come soggetti a cui viene predicato qualcosa, questi poi dovrebbero, se corrispondono a fatti, se cioè, sono veri, corrispondere a sostanze con determinati accidenti (per dirla alla Tarski il gatto è bianco ↔il gatto è bianco). Nell'esempio: il gatto è bianco, il soggetto è il gatto e il predicato è la qualità bianco, ma mentre Aristotele è convinto che questo può essere vero semplicemente perché effettivamente esiste una sostanza gatto che ha un accidente che è la bianchezza, il discorso di Kant non differisce tantissimo se non che il gatto è determinato come sostante in quanto questa è una delle categorie che vedremo far parte dell'intelletto e la bianchezza rientrerebbe sotto la voce: qualità. Questo perché il fenomeno è anche determinato concettualmente dall'intelletto, ma a ciò ci arriveremo per gradi. In primo luogo per Kant esistono varie forme di giudizio: giudizi categorici e giudizi sintetici; giudizi a priori e giudizi a posteriori. A questo punto ci saranno giudizi categorici a priori, giudizi sintetici a priori e giudizi sintetici a posteriori. Il giudizio categorico è tale per cui nel soggetto è già contenuto il predicato, per esempio quando si dice che il triangolo ha tre lati, o che la molecola d'acqua sia H2O. Questo tipo di giudizio non ci dice nulla di nuovo sul soggetto, quindi ha carattere tautologico, infatti questi due giudizi possono essere anche scritti: quell'ente con tre lati ha tre lati, la molecola H2O è H2O, dopo tutto, tutto questo è vero per definizione e il secondo elemento non aggiunge niente al primo. Per questo motivo, dal momento che i giudizi categorici hanno questa caratteristica, si deduce che non possono esistere giudizi categorici a posteriori, ma solo a priori. I giudizi sintetici invece hanno la caratteristica di costituire veramente una nuova conoscenza, per esempio: 2 + 5 = 7. Quest'ultimo giudizio non duce nulla su un dato soggetto, non si può derivare dal 2 il 5. Il punto per Kant è che esiste una netta differenza tra "Socrate corre" e "la terra ruota attorno al sole", in quanto il primo giudizio è sintetico come il secondo, ma è a posteriori perché non possiamo sapere della sua verità se non qualora dovessimo vedere Socrate correre e questi giudizi sintetici a posteriori non hanno validità universale e necessaria perché infatti Socrate può smettere di correre quando vuole, così come fenomeno non dedotto a priori può cessare in qualsiasi momento. "Socrate corre tutte le mattine, quindi correrà anche questa mattina" si basa semplicemente su una deduzione derivata dall'abitudine, per questo è una deduzione molto debole. Mentre "Socrate corre tutte le mattine", nonostante l'apparenza non ha nulla di universale e necessario, "la terra ruota attorno al sole" invece è un giudizio sintetico a priori, quindi universale e necessario, in quanto è dato come verità da una deduzione pura a partire dalle categorie dell'intelletto.

Esistono per Kant delle tavole vere e proprie del giudizio che classificano le varie forme di giudizio. Queste tavole sono le seguenti:

Quantità: universali, particolari, singolari.

Qualità: affermativi, negativi, infinitivi.

Relazione: categorici, ipotetici, disgiuntivi.

Modalità: problematici, assertori, apodittici.

Queste tavole determinano i giudizi secondo il loro tipo, ad esempio: un giudizio affermativo può essere: "il delfino è un mammifero", uno negativo: "A Matteo non piace il rosso", uno universale: "Tutti gli uomini vengono dalle scimmie", uno ipotetico: "se farai tanto sport, migliorerai il tuo fisico". I generale non è difficile capire il senso di queste forme di giudizio, tranne per una che è quella degli "infinitivi", in cui Kant precisa che dire "l'anima è non mortale" non è lo stesso di dire che "l'anima è immortale", il primo giudizio è detto infinitivo, perché due negazioni non affermano per Kant, anche perché dire che  non si da non X, non significa semplicemente che si da X, per questo il primo giudizio è nettamente diverso dal secondo che è affermativo. Se i giudizi sono ora classificati, sappiamo che un giudizio genericamente è dato da un soggetto e un predicato, qualcosa viene predicata ad un dato soggetto. Devono quindi venire le tavole delle categorie ora. Le categorie  si riferiscono a quel qualcosa che viene predicato al soggetto, per questo diciamo che ognuno dei predicati ricade sempre sotto una categoria, tranne per quanto riguarda la categoria della sostanza che si riferisce direttamente al soggetto del giudizio. Le tavole delle categorie sono queste:

Quantità: unità, pluralità, totale.

Qualità: realtà, negazione, limitazione.

Relazione: inerenza/sussistenza, causalità/dipendenza, reciprocità.

Modalità: possibilità/impossibilità, esistenza/inesistenza, necessità/contingenza.

Ci quattro classi, sotto ogni classe stanno tre categorie. Queste categorie sono concetti puri dell'intelletto alla base della determinazione concettuale del materiale empirico. Prima che avvenga questa determinazione, le varie sensazioni devono aver già subito un processo di sintesi, di unificazione da parte della stessa immaginazione. Questo fatto evidenzia alcune cose strettamente importanti, ovvero non solo il fatto che si deve presupporre questa operazione perché i sensi da soli non basterebbero, ma anche il fatto che questa unità, che poi la troviamo tre le categorie, non è qualcosa che si possa dare prima di questa sintesi. Questo banale fatto ci fa pensare e ci porta a dire che l'unità del fenomeno non esiste prima dell'operazione della sintesi e per questo l'unità dell'oggetto non esiste prima che sia essa stessa costruita dalla sintesi. Della  cosa in sé non si può dire che abbia unità. Le categorie determinano solo successivamente il materiale empirico che è diventato percezione. Queste categorie non hanno nessuna derivazione empirica, esse non possono essere in alcun modo dedotte da ciò di cui noi facciamo esperienza. Infatti già qualcuno aveva tentato questa strada: John Locke, ma secondo Kant è caduto nella fantasticheria e l'altro empirista, quello scozzese: David Hume, era giunto allo scetticismo dichiarando l'impossibilità di derivare a posteriori questi concetti puri o categorie. Kant sostiene che si possono dare semplicemente a priori questi concetti come condizioni di possibilità dei concetti. Chiaramente in questo momento facciamo riferimento non più alla sensibilità, ma all'intelletto. Questa determinazione concettuale, però, ci da solo un molteplice di rappresentazioni, questo molteplice richiede per necessità un ulteriore unità, questa unità sarà l'appercezione trascendentale. Si intende con questo termine una specie di autocoscienza che viene definita con il termine: Io sono, che accompagna ogni rappresentazione. Se non vi fosse questa unità ultima non vi sarebbe che un molteplice di rappresentazioni confuso senza un'unità soggetto a cui si riferiscono, non sarebbero rappresentazioni di nessuno in un certo qual senso. L'Io penso è quindi non qualcosa come un soggetto in sé, ma piuttosto un soggetto fenomenico. Si può dire che l'io penso sia quell'unità soggettiva che più che essere reale, è semplicemente funzione logica, quell'io=io a cui non si può dare contenuto. Tuttavia l'unità, che sia quella dell'io penso o di altro genere, è essenziale in tutto il processo conoscitivo, il quale non è altro che un processo di riduzione del molteplice ad unità. La percezione è l'unità di tante sensazioni, il concetto mette assieme differenti predicati, così come molti accidenti appartengono ad una sola sostanza e le varie rappresentazioni sono riportate ad una sola coscienza. Nel discorso di Kant però sembra che questa unità e il processo di unificazione in realtà sia l'essenziale della conoscenza, così concetti e fenomeni hanno unità, ma non si può dire lo stesso delle cose in sé di cui non si sa nulla. Per questo motivo l'unità si da solo dopo una serie di processi di conoscenza. Il senso esterno ci da le intuizioni come collocate nello spazio secondo le tre dimensioni: altezza, lunghezza e profondità, a queste dimensioni deve essere aggiunta una quarta che è quella del tempo, la quale compete al senso interno. Prima percepiamo delle cose, collocandole nello spazio e poi tutto viene disposto in una sequenza lineare, secondo la linea del tempo e quindi secondo la successione temporale. Il tempo o meglio il senso interno concerne le determinazioni dell'esistenza di ognuno. Ciò che viviamo come esperienza esterna, cose che vediamo, sentiamo coi sensi e ciò percepiamo come sensazioni interne, vitali, tutto viene disposto in una successione secondo la forma del tempo e dal senso interno. L'uomo al di là dell'immaginazione  e della sensibilità possiede tre facoltà: ragione, intelletto e giudizio. Il giudizio non è facoltà di conoscere le regole, quanto piuttosto quella di applicarle. Il giudizio, almeno per quello che si intende nella Critica della ragion pura, è quella facoltà di applicare l'universale al particolare. Non è qualcosa che può essere insegnato o appreso, si può solo sviluppare da sé. Il problema del giudizio nasce quando dobbiamo applicare il concetto al caso specifico o quando dobbiamo applicare la regola al particolare. In questo caso si pone il problema del passaggio dall'universale al particolare e questo passaggio Kant lo risolve in questo modo: ci deve essere qualcosa di mediano tra il particolare e l'universale. questa cosa è la rappresentazione pura che deriva da quello che Kant chiama: lo schematismo trascendentale. L'esperienza richiede sia il concetto che la sensazione, ma nell'esperienza non facciamo altro che applicare concetti alle nostre percezioni, possiamo dire: " il tavolo è rettangolare", "ci sono quattro specchi in bagno", "quest'auto è sporca". Perché si possa dare il passaggio da un universale concetto ad una particolare percezione, per esempio quando dico che "il piatto è rotondo", in quel caso una rappresentazione del cerchio uso per pensare la rotondità del cerchio. I concetti non sono chiaramente immagini, ma le rappresentazioni sì e solo attraverso queste si pensano le cose, come sarebbe difficile dire che quando pensiamo "il pappagallo è verde", non ci raffiguriamo il verde come immagine. Lo schema trascendentale serve perché si possa dare giudizio, questo giudizio è declinabile secondo le tavole che molto prima avevo mostrato e secondo i tipi che avevo detto: analitico, sintetico. Un giudizio analitico è tale per cui il predicato è già contenuto nel concetto, questo vuol dire che in ogni caso che si da un determinata cosa essa ha quel predicato (∀x (Ax →Bx)). Nel caso del giudizio sintetico quel qualcosa che si predica vale per quel caso particolare, per cui si dice che x è y e non che ogni x è y.

Altri post correlati:

Estetica trascendentale (critica della ragion pura, Kant) 

Kant 

Schopenhauer: Kant 

Analitica trascendentale, p II (critica della ragion pura, Kant)