Intanto le macchine ci battono a GO


Vai a pagina Precedente  1, 2, 3, 4  Successivo
Autore Messaggio
L.MCH
Horus Horus
Messaggi: 5855
Località: non pervenuta
MessaggioInviato: Dom 31 Gen, 2016 23:55    Oggetto:   

il_Cimpy_spinoso ha scritto:
Citazione:
ci stiamo avvicinando ai limiti delle tecnologie attuali per la realizzazione di sistemi di calcolo


Sembra che per te sia un problema di hardware insufficiente. E se invece oggi fosse (soprattutto) un problema software?
Il punto è  che noialtri umani nemmeno ci avviciniamo alle capacità di calcolo o mnemoniche di una macchina o alla sua possibilità di guidare con precisione nanometrica le sue periferiche (windows a parte) - ma siamo in grado di combinare diversanente le informazioni e di reagire in modo differente ai vari stimoli   ... che quel che manca davvero siano decisioni discutibili sostenute caparbiamente, errori casuali e un po' di fetentaggine ?
Come in: "Computer Madre, è  stato Commodore a finire tutto  il toner,  io non c'entro!"....

Il nostro hardware è completamente diverso e cosa da non trascurare le funzioni di elaborazione dei dati sono più distribuite di quanto si pensi (ad esempio, parte dell'elaborazione di quel che vediamo avviene già a livello della retina), senza parlare di come sono organizzati il nostro sistema di input e quello motivazionale.

Le reti neurali emulate in software hanno sufficiente flessibilità ma sono limitate dal richiedere una potenza di calcolo maggiore (a causa dell'emulazione dal dover gestire in software altre cose che noi gestiamo in hardware), per questo avevo scritto che forse con sistemi con parte dell'implementazione "in hardware" basata su memristori forse si riesce ad andare avanti più di quanto permetta l'evoluzione dei sistemi basati su cpu/gpu che si usano attualmente.

In ogni caso, già con quel che ci si può aspettare nei prossimi 2..3 anni (tecnologie di produzione a 10..7nm e nuove memorie allo stato solido) dovrebbe essere disponibile parecchia roba interessante, l'unico vero dubbio è se sarà sufficientemente vantaggiosa rispetto alle tecnologie già in uso da uscire dalle nicchie attuali.
Paolocosmico
Horus Horus
Messaggi: 5248
Località: livorno
MessaggioInviato: Lun 01 Feb, 2016 00:25    Oggetto:   

Paolo7 ha scritto:
Paolocosmico ha scritto:
faccio il profeta: la prima missione umana su Marte sarà supervisionata da una intelligenza artificiale entro il 2039

Sempre che l'Effetto Seneca non ci freghi prima...

beh in tal caso invece che per esplorare lo spazio la useremo per cercare soluzioni Razz
Albacube reloaded
Horus Horus
Messaggi: 3868
Località: Un paesello in provincia di Padova
MessaggioInviato: Lun 01 Feb, 2016 00:41    Oggetto:   

L.Mch, per fare il salto da "singolarità" o limitrofo, penso sia necessario uscire dalla logica binaria del transistor: recenti studi indicano come la diversità del cervello biologico non stia solo nella pluralità di collegamenti ma anche nella qualità/spessore degli stessi (che poi non siano statici aggiunge ulteriori variabili).
Mi pare che il processo a 10 nm Intel lo abbia già implementato (probabilmente non nei processori ma nelle memorie, se non ricordo male)... stanno comunque studiando i nodi a 7 e i 5 con la Euv, solo che mancano ancora le macchine per farli così piccoli in maniera industriale, praticabile ed economica.
Very Happy mi ricordo che alcuni anni fa parlavano di un limite inferiore a 13 nm, poi a 9, ora siamo allo studio dei 5 (però più di tanto non si potrà poi fare, che gli atomi iniziano a essere pochi...), magari cambiano supporto e dal silicio passiamo ad altro.
Se però riescono a fuggire dal binario, allora le cose potrebbero cambiare.

Io ci conto di riuscire a vedere le prime implementazioni al di fuori del binario binario Smile
L.MCH
Horus Horus
Messaggi: 5855
Località: non pervenuta
MessaggioInviato: Lun 01 Feb, 2016 01:44    Oggetto:   

Albacube reloaded ha scritto:
L.Mch, per fare il salto da "singolarità" o limitrofo, penso sia necessario uscire dalla logica binaria del transistor: recenti studi indicano come la diversità del cervello biologico non stia solo nella pluralità di collegamenti ma anche nella qualità/spessore degli stessi (che poi non siano statici aggiunge ulteriori variabili).


Infatti attualmente vengono per la maggior parte simulate in software, non in hardware.
Usando architetture dedicate con memristori o memorie equivalenti dovrebbe essere possibile realizzare chip che implementano direttamente reti neurali in hardware (o con molta più roba eseguita direttamente in hardware) ottenendo una maggior efficienza e prestazioni più alte.

Albacube reloaded ha scritto:
Mi pare che il processo a 10 nm Intel lo abbia già implementato (probabilmente non nei processori ma nelle memorie, se non ricordo male)... stanno comunque studiando i nodi a 7 e i 5 con la Euv, solo che mancano ancora le macchine per farli così piccoli in maniera industriale, praticabile ed economica.
Very Happy mi ricordo che alcuni anni fa parlavano di un limite inferiore a 13 nm, poi a 9, ora siamo allo studio dei 5 (però più di tanto non si potrà poi fare, che gli atomi iniziano a essere pochi...), magari cambiano supporto e dal silicio passiamo ad altro.
Se però riescono a fuggire dal binario, allora le cose potrebbero cambiare.

Io ci conto di riuscire a vedere le prime implementazioni al di fuori del binario binario Smile

Un conto sono i chip prototipo (dove rese molto basse non sono un problema e la produzione è su piccola scala in laboratori), tutto un altro paio di maniche quelli acquistabili.
I primi chip a 10nm di Intel arriveranno nel secondo semestre del 2017 e per i 7nm le stime attuali sono per circa il 2020  ... se non ci sono altri intoppi.

Per rendere l'idea, Intel nel 2013 aveva dichiarato che per il 2015 avrebbe messo in commercio chip a 10nm
(circa 3 anni di ritardo sulla sua roadmap).

Uno dei problemi sono le sorgenti di luce e l' "ottica" degli EUV  (ultravioletti estremi).
Il motivo è che gli EUV sono quasi raggi X come comportamento (quindi le "lenti" non sono classiche lenti, le fonti di "luce" sono meno affidabili, ecc. ecc.).
Negli step precedenti si era arrivati ad usare lunghezze d'onda più grandi ed usare lenti e maschere che sfruttavano fenomeni di interferenza e diffrazione  per fotolitografare i dettagli più piccoli, infatti ora c'e' una vera e propria specializzazione (fotolitografia computazionale) riguardo il "calcolo" delle maschere e delle ottiche per tener conto di questo (mentre una volta bastava mettere a fuoco direttamente le maschere dei vari layer).
orcolat
Vorlon Vorlon
Messaggi: 986
MessaggioInviato: Lun 01 Feb, 2016 09:19    Oggetto:   

Io continuo a credere che il problema non sia puramente tecnologico.

Ma il mio è anche un problema di tipo pregiudiziale: non penso arriveremo alla singolarità.

Inoltre l'umanità che crea un nuovo essere senziente lo fa sulla base delle proprie conoscenze, quindi potrebbe anche essere che il costo dell'intelligenza sia pagato dalla potenza di calcolo, tipo: creiamo una nuova specie, ma coi nostri limiti intrinseci.

O magari no, ma poi chiedi al nuovo venuto "Calcolami l'ultima cifra decimale di pi-greco..." e vai a prenderti un caffè al ristorante al termine dell'universo.

Insomma, ho forti dubbi, ma, ripeto, sono curioso e resto a guardare. Mi piacerebbe anche lavorare nel campo dell'IA (ma ormai sono vecchio Smile)
HappyCactus
Horus Horus
Messaggi: 4915
Località: Verona
MessaggioInviato: Lun 01 Feb, 2016 09:31    Oggetto:   

Faccio presente che la rete neurale è una tecnologia "emergente" nel senso che le sue peculiarità non sono predeterminate dal design, ma emergono. Nessuno "sa" come funziona la rete neurale che gioca a go, per il semplice fatto che la sua capacità di elaborare è data dalla sua architettura stessa. Idem per il cervello umano, i ricordi non sono "localizzati" in un neurone, ma sono determinati dalle interconnessioni di un gruppo più o meno vasto di neuroni.
Quindi il problema non è il software, né la capacità degli scienziati di comprendere ed emulare il neurone biologico. Il comportamento delle reti è come detto dato dall'architettura stessa e dal comportamento non lineare del neurone; ciò non toglie che un modello di neurone diverso possa fornire comportamenti simili, o addirittura, esser più efficiente di quello biologico.
Io attualmente vedo due limiti, il primo a livello implementativo, in quanto l'emulazione del neurone in software è molto inefficiente dal punto di vista delle risorse; in futuro la pressione tecnologica porterà ad ottimizzare l'utilizzazione di tali risorse, e dunque il traguardo di 10^12-10^15 sinapsi sarà più facilmente raggiungibile. Quasi sicuramente la via è quella delle reti neurali implementate in hw, magari con tecnologia ibrida (analogica+digitale). 
Il secondo limite mi sembra essere a livello di algoritmi di apprendimento, che si basano quasi sempre su entità "esterne" (funzioni obiettivo, back propagation, ecc) quando credo che in realtà il problema dovrebbe essere risolto a livello interno stesso alla rete; non esiste un "ente esterno" che modifica la topologia della rete del cervello di un bimbo: è una rete autoorganizzante. 
D'altro canto tuttavia stiamo parlando di una tecnologia che inizia ora ad avere applicazioni commerciali su larga scala, ergo possiamo attenderci degli sviluppi notevoli a brevissimo termine.
Faccio notare che già oggi si cominciano a vedere applicazioni "di largo pubblico" (siri, google now). 
Quindi forse non avremo presto una IA forte, ma nei prossimi 5-10 anni ne vedremo delle belle.
orcolat
Vorlon Vorlon
Messaggi: 986
MessaggioInviato: Lun 01 Feb, 2016 10:13    Oggetto:   

HappyCactus ha scritto:
Faccio presente che la rete neurale è una tecnologia "emergente" nel senso che le sue peculiarità non sono predeterminate dal design, ma emergono. Nessuno "sa" come funziona la rete neurale che gioca a go, per il semplice fatto che la sua capacità di elaborare è data dalla sua architettura stessa.


Vado a braccio, ma non sono certo che le reti neurali artificiali siano vere black box.
So per certo che dei colleghi (però parlo di N anni fa) studiavano un modo per ottenere leggi sperimentali per la predizione di eventi solari dalle reti neurali che nutrivano coi loro dati.
Certo, questo si riallaccia a

HappyCactus ha scritto:
Il secondo limite mi sembra essere a livello di algoritmi di apprendimento, che si basano quasi sempre su entità "esterne" (funzioni obiettivo, back propagation, ecc) quando credo che in realtà il problema dovrebbe essere risolto a livello interno stesso alla rete; non esiste un "ente esterno" che modifica la topologia della rete del cervello di un bimbo: è una rete autoorganizzante.


Limite su cui mi trovi d'accordo, ma non so quali soluzioni si possano avere per aggirarlo.
Certo esistono ANN con autoapprendimento, ma servono a fornire dei risultati, non ad autoistruire la matrice...ma potrei sbagliarmi

HappyCactus ha scritto:
D'altro canto tuttavia stiamo parlando di una tecnologia che inizia ora ad avere applicazioni commerciali su larga scala, ergo possiamo attenderci degli sviluppi notevoli a brevissimo termine.
Faccio notare che già oggi si cominciano a vedere applicazioni "di largo pubblico" (siri, google now). 
Quindi forse non avremo presto una IA forte, ma nei prossimi 5-10 anni ne vedremo delle belle.


E' per questo che resto curioso a vedere cosa succede.
HappyCactus
Horus Horus
Messaggi: 4915
Località: Verona
MessaggioInviato: Lun 01 Feb, 2016 15:37    Oggetto:   

orcolat ha scritto:

Inoltre l'umanità che crea un nuovo essere senziente lo fa sulla base delle proprie conoscenze, quindi potrebbe anche essere che il costo dell'intelligenza sia pagato dalla potenza di calcolo, tipo: creiamo una nuova specie, ma coi nostri limiti intrinseci.


Sta proprio qui il "salto": non possiamo sapere come la rete neurale gioca a Go, difficilmente possiamo predire cosa penserà.
Il fatto è che una proprietà emergente come l'intelligenza non può essere indotta; può darsi che imiti il nostro ragionamento, i nostri schemi, ma ho il sentore che non sia così; condividiamo con i nostri bimbi una serie di schemi mentali, di strutture di base, e poi loro imparano a pensare e ragionare da noi adulti, in un mix di ereditarietà, ambiente e apprendimento per imitazione. Ma una macchina?

Citazione:

Insomma, ho forti dubbi, ma, ripeto, sono curioso e resto a guardare. Mi piacerebbe anche lavorare nel campo dell'IA (ma ormai sono vecchio Smile)


Anche a me, ma più che vecchio, non ho ne ho il tempo.
Magari per quando sarò in pensione...
Tobanis
Antinano Antinano
Messaggi: 14633
Località: Padova
MessaggioInviato: Lun 01 Feb, 2016 16:06    Oggetto:   

Secondo me ci siamo già con la Stupidità Artificiale, una macchina stupida è ormai indistinguibile, nel comportamento e nelle risposte, da un umano deficiente.
HappyCactus
Horus Horus
Messaggi: 4915
Località: Verona
MessaggioInviato: Lun 01 Feb, 2016 17:53    Oggetto:   

LOL. Tobanis, hai vinto. Laughing
Albacube reloaded
Horus Horus
Messaggi: 3868
Località: Un paesello in provincia di Padova
MessaggioInviato: Lun 01 Feb, 2016 18:14    Oggetto:   

Tobanis ha scritto:
Secondo me ci siamo già con la Stupidità Artificiale, una macchina stupida è ormai indistinguibile, nel comportamento e nelle risposte, da un umano deficiente.

Oddio, sottovaluti l'umano Muahahaha!
il_Cimpy_spinoso
Babbano in Incognito Babbano in Incognito
Messaggi: 6727
Località: Ovunque
MessaggioInviato: Lun 01 Feb, 2016 22:28    Oggetto:   

"nei prossimi 5-10 anni ne vedremo delle belle"

E il prossimo lustro sarà il quinquennio del Robot....


(Bada a te...!)

Black Cat
Fedemone
Asgard Asgard
Messaggi: 1404
MessaggioInviato: Ven 19 Feb, 2016 16:10    Oggetto:   

http://www.repubblica.it/tecnologia/2016/02/18/news/amelia_l_algoritmo_che_uccide_i_call_center-133716496/

Nel frattempo le macchine ci battono anche al call center.

Io sono sempre stato decisamente contrario al luddismo, ma devo ricredermi? Certo la questione, messa così, è abbastanza capziona: da un lato vogliamo merci a basso costo, risposte chiare e veloci. Però il metodo con cui si ottengono non piace...

Io sono ad esempio dell'idea lavorare meno per lavorare tutti, visot che il tempo personale alla fineè veramente poco, e se si potesse distribuire meglio grazie alle macchine, per me sarebbe l'ideale. Certo tra ideale e reale ci passa il male ehmm mare.
Paolocosmico
Horus Horus
Messaggi: 5248
Località: livorno
MessaggioInviato: Ven 19 Feb, 2016 21:26    Oggetto:   

Fedemone ha scritto:
http://www.repubblica.it/tecnologia/2016/02/18/news/amelia_l_algoritmo_che_uccide_i_call_center-133716496/

Nel frattempo le macchine ci battono anche al call center.

Io sono sempre stato decisamente contrario al luddismo, ma devo ricredermi? Certo la questione, messa così, è abbastanza capziona: da un lato vogliamo merci a basso costo, risposte chiare e veloci. Però il metodo con cui si ottengono non piace...

Io sono ad esempio dell'idea lavorare meno per lavorare tutti, visot che il tempo personale alla fineè veramente poco, e se si potesse distribuire meglio grazie alle macchine, per me sarebbe l'ideale. Certo tra ideale e reale ci passa il male ehmm mare.

maledetto socialista! Very HappyVery HappyVery Happy
Fedemone
Asgard Asgard
Messaggi: 1404
MessaggioInviato: Ven 26 Feb, 2016 17:51    Oggetto:   

No no solo pigro Razz
Mostra prima i messaggi di:   
   Torna a Indice principale :: Torna a Tecnologia Tutti i fusi orari sono GMT + 1 ora
Vai a pagina Precedente  1, 2, 3, 4  Successivo

Vai a:  
Non puoi inserire nuove discussioni in questo forum
Non puoi rispondere alle discussioni in questo forum
Non puoi modificare i tuoi messaggi in questo forum
Non puoi cancellare i tuoi messaggi in questo forum
Non puoi votare nei sondaggi in questo forum