Visualizza Risultati Sondaggio: La nostra vita/salute/cultura sarebbe stata migliore senza internet?

Partecipanti
41. Non puoi votare in questo sondaggio
  • No, internet fornisce più benefici che svantaggi. O meglio sono svantaggi "sopportabili".

    24 58.54%
  • Si, probabilmente avremo vissuto in un mondo più "sano" come i nostri genitori.

    3 7.32%
  • Sono indeciso.

    2 4.88%
  • Ma non era meglio se te ne andavi a dormire invece di scrivere sto topic?

    12 29.27%
Pagina 13 di 13 PrimaPrima ... 3111213
Risultati da 121 a 129 di 129
  1. #121
    →Read Only Member L'avatar di Davyl
    Data Registrazione
    Tue Jun 2006
    Località
    Involving society.
    Messaggi
    8,820

    Predefinito

    Citazione Originariamente Scritto da Smallman_647
    Perchè giustamente i software non possono commettere errori? Ma se è risaputo che non esiste un programma senza bug.
    Mi basta la domanda per capire a che livelli stiamo parlando... Oltretutto è anche abbastanza grave che un "programmatore" associ questo tipo di domanda alla frase che hai scritto dopo.
    La risposta alla domanda? No assolutamente. Un software non commette errori, mai. Un software esegue puntualmente quello che il programmatore ha previsto per lui.

    Quello di cui parli tu, bug e tutto il resto, è ancora una volta parte di "errore umano", difetti nella programmazione o stati di esecuzione non previsti (ad esempio con codici parallelizzabili con concorrenza mal gestita) non sono imputabili al "software che non funziona", ma ad errori del programmatore. Una simile confusione potrei capire se l'avesse qualcuno che dell'ambito non capisce granché, ma da un programmatore no.

    Citazione Originariamente Scritto da Smallman_647
    Quindi, affidarsi in toto ai programmi è da pazzi e te lo dice un programmatore. Ci devono essere sempre uomo e macchina contemporaneamente per ridurre il numero di errori e lasciare alla macchina solo le mansioni ripetitive e non il controllo totale.
    Dipende da quello che devi farci. Esiste una branca dell'automazione applicata all'informatica chiamata "automatica" che studia e permette la manipolazione di fenomeni di regolazione automatica, e la rete ne è piena di applicazioni del genere. Le risorse umane in un sistema informativo sono di fatto insostituibili da macchine e calcolatori, ma pensare che ci debbano essere "uomo&macchina" per ogni mansione (a parte quelle "ripetitive", che sono banali) lascia intendere che non hai ben chiaro di come funziona la realtà informatica attuale, dall'inoltro dei pacchetti ai controlli di flusso e congestione (che sono tutto fuorché ripetitivi), tanto per rimanere in ambito della Rete.
    Molto più di quello che pensiamo è oggigiorno automatizzato, ed escludendo casi sfortunati come quelli citati prima, tutto l'apparato informatico funziona in maniera lodevole (che non vuole dire "non_migliorabile").

    Gli esempi che hai posto tu, comunque, sono validissimi e fanno capire fino a che punto si spinge l'imprevedibilità dell'esecuzione di software molto estesi, ma ti invito ancora una volta a capire che anche questi discendono da una cattiva implementazione. I casi che hai riportato sono molto significativi (e non sono gli unici, comunque), ma la ricerca esiste anche per questo: imparare dagli errori e sviluppare soluzioni efficaci ed efficienti. Se è vero che a causa di errori di progettazione si sono verificati episodi che si potevano anche evitare, è pur vero che il Testing è una fase che proprio in merito a queste circostanze verificatesi ha acquisito un enorme valore.

    Vabbè, in breve, Internet è un'innovazione positiva.

  2. #122
    Senior Member L'avatar di Smallman_647
    Data Registrazione
    Tue Apr 2010
    Località
    Manfredonia(FG)
    Messaggi
    5,592

    Predefinito

    Citazione Originariamente Scritto da Davyl Visualizza Messaggio
    Mi basta la domanda per capire a che livelli stiamo parlando... Oltretutto è anche abbastanza grave che un "programmatore" associ questo tipo di domanda alla frase che hai scritto dopo.
    La risposta alla domanda? No assolutamente. Un software non commette errori, mai. Un software esegue puntualmente quello che il programmatore ha previsto per lui.
    Tu dici? E se una macchina su cui gira il programma non esegue bene i calcoli in virgola mobile come fu per un particolare serie di pentium che la intel ritirò dal mercato perchè difettosi?
    http://www.tesionline.it/v2/cronologia.jsp?evid=4566

    Ma probabilmente non sai che quando vengono utilizzati i così chiamati "numeri reali" in infomatica non si sta utilizzando altro che un sottoinsieme dei numeri razionali, e quindi già in partenza si presume che tu stia facendo un'approssimazione della realtà.
    Perciò, come potresti immagginare, un software che deve calcolare ad esempio calcoli astronomici in cui le cifre si sprecano o calcoli matematici, non darà mai un risultato VERAMENTE esatto, ma sempre una sua approssimazione per quanto precisa.

    Ma giusto per fare un esempio eh.


    Citazione Originariamente Scritto da Davyl Visualizza Messaggio
    Gli esempi che hai posto tu, comunque, sono validissimi e fanno capire fino a che punto si spinge l'imprevedibilità dell'esecuzione di software molto estesi, ma ti invito ancora una volta a capire che anche questi discendono da una cattiva implementazione. I casi che hai riportato sono molto significativi (e non sono gli unici, comunque), ma la ricerca esiste anche per questo: imparare dagli errori e sviluppare soluzioni efficaci ed efficienti. Se è vero che a causa di errori di progettazione si sono verificati episodi che si potevano anche evitare, è pur vero che il Testing è una fase che proprio in merito a queste circostanze verificatesi ha acquisito un enorme valore.
    Ma non è solo una questione di cattiva implementazione. Volendo puoi scegliere i migliori programmatori al mondo con i migliori progetti e analisti che esistono ma ugualmente non riuscirai mai per quanto le tecniche si stiano migliorando sempre piu' a creare un programma che non possa "crollare" o sballarsi da un momento all'altro.
    Ultima modifica di Smallman_647; 17-11-2012 alle 16:21

    perchè lo hai detto tu che sei ogni sapiente

  3. #123
    →Read Only Member L'avatar di Davyl
    Data Registrazione
    Tue Jun 2006
    Località
    Involving society.
    Messaggi
    8,820

    Predefinito

    Citazione Originariamente Scritto da Smallman_647 Visualizza Messaggio
    Tu dici? E se una macchina su cui gira il programma non esegue bene i calcoli in virgola mobile come fu per un particolare serie di pentium che la intel ritirò dal mercato perchè difettosi?
    http://www.tesionline.it/v2/cronologia.jsp?evid=4566

    Ma probabilmente non sai che quando vengono utilizzati i così chiamati "numeri reali" in infomatica non si sta utilizzando altro che un sottoinsieme dei numeri razionali, e quindi già in partenza si presume che tu stia facendo un'approssimazione della realtà.
    Perciò, come potresti immagginare, un software che deve calcolare ad esempio calcoli astronomici in cui le cifre si sprecano o calcoli matematici, non darà mai un risultato VERAMENTE esatto, ma sempre una sua approssimazione per quanto precisa.

    Ma giusto per fare un esempio eh.
    Si chiama quantizzazione e riguarda ogni dispositivo che funzioni in maniera digitale, ma qui la stiamo mettendo sul lato dei componenti hardware, io sto parlando di quelle puramente software. E' evidente che se l'hardware sottostante è progettato per sistemi general purpose non può permettere il corretto funzionamento, ad esempio, di un sistema real-time.
    Il discorso che sto facendo invece, da' per scontato che la selezione dell'hardware soddisfi ampiamente quello che devo farci (e che cacchio, almeno questo). Non è che se devo mettere su un server per servizi di storage per un ateneo compro giusto qualche Terabyte di disco e buonanotte. E' normale che quello debba essere il primo passo fatto con criterio, il problema è col software. Poi che anche le operazioni fra numeri in virgola mobile vengano male implementate a livello hardware è un altro paio di maniche, qualsiasi cosa è soggetta ad errori, pazienza. Penso che controlli di questo tipo vengano fatti prima di montare una struttura di Cloud Computing :P

    Comunque, ancora una volta, è troppo superficiale (e inefficiente) voler affidare ai calcolatori soltanto banali moduli software da eseguire in loop, quando questi possono benissimamente andare oltre e velocizzare ben altri tipi di operazioni e fornire ancora più servizi. Ti ripeto gli errori (tralasciando quelli hardware, dopo basta sostituire il pezzo/la serie) ci sono e continueranno sempre ad esserci, ma i metodi che si utilizzano e che si sviluppano tendono a ridurre sia questa percentuale che la quantità di danni eventualmente compromessi, quindi trovo del tutto ingiustificata questa (passatemi il termine) ...avversione(?) verso quei sistemi che possono essere totalmente automatizzati... che poi tra l'altro esistono, e li sfrutti ogni giorno magari senza saperlo.

    Citazione Originariamente Scritto da Smallman_647 Visualizza Messaggio
    Ma non è solo una questione di cattiva implementazione. Volendo puoi scegliere i migliori programmatori al mondo con i migliori progetti e analisti che esistono ma ugualmente non riuscirai mai per quanto le tecniche si stiano migliorando sempre piu' a creare un programma che non possa "crollare" o sballarsi da un momento all'altro.
    Ma riduci la possibilità di errore, ed è quello che conta!

  4. #124
    Senior Member L'avatar di Smallman_647
    Data Registrazione
    Tue Apr 2010
    Località
    Manfredonia(FG)
    Messaggi
    5,592

    Predefinito

    Citazione Originariamente Scritto da Davyl Visualizza Messaggio
    Si chiama quantizzazione e riguarda ogni dispositivo che funzioni in maniera digitale, ma qui la stiamo mettendo sul lato dei componenti hardware, io sto parlando di quelle puramente software. E' evidente che se l'hardware sottostante è progettato per sistemi general purpose non può permettere il corretto funzionamento, ad esempio, di un sistema real-time.
    Il discorso che sto facendo invece, da' per scontato che la selezione dell'hardware soddisfi ampiamente quello che devo farci (e che cacchio, almeno questo). Non è che se devo mettere su un server per servizi di storage per un ateneo compro giusto qualche Terabyte di disco e buonanotte. E' normale che quello debba essere il primo passo fatto con criterio, il problema è col software. Poi che anche le operazioni fra numeri in virgola mobile vengano male implementate a livello hardware è un altro paio di maniche, qualsiasi cosa è soggetta ad errori, pazienza. Penso che controlli di questo tipo vengano fatti prima di montare una struttura di Cloud Computing :P

    Comunque, ancora una volta, è troppo superficiale (e inefficiente) voler affidare ai calcolatori soltanto banali moduli software da eseguire in loop, quando questi possono benissimamente andare oltre e velocizzare ben altri tipi di operazioni e fornire ancora più servizi. Ti ripeto gli errori (tralasciando quelli hardware, dopo basta sostituire il pezzo/la serie) ci sono e continueranno sempre ad esserci, ma i metodi che si utilizzano e che si sviluppano tendono a ridurre sia questa percentuale che la quantità di danni eventualmente compromessi, quindi trovo del tutto ingiustificata questa (passatemi il termine) ...avversione(?) verso quei sistemi che possono essere totalmente automatizzati... che poi tra l'altro esistono, e li sfrutti ogni giorno magari senza saperlo.



    Ma riduci la possibilità di errore, ed è quello che conta!
    Boh, a me sembra tu stia rigirando la frittata.
    Sembra che io stia dicendo che i sistemi automatizzati (così come internet) non servano ad una ceppa e non portano vantaggi. Ma chi ha mai detto ciò?

    Ho semplicemente detto che è da pazzi fare affidamento al 100% su una macchina dicendo tanto quella non sbaglia mai, posso andare anche a prendermi il caffè nel frattempo, non che non sia utile...

    -----------------------

    Poi che anche le operazioni fra numeri in virgola mobile vengano male implementate a livello hardware è un altro paio di maniche, qualsiasi cosa è soggetta ad errori, pazienza.
    non è che vengano semplicemente implementate male, è proprio una questione di limite dell'informatica. Ogni dispositivo informatico che usa variabili "reali" avrà una mancanza di precisione, a prescindere dall'hardware su cui gira. E' semplicemente dovuto alla risorse non infinite di cui l'informatica dispone.
    Per rappresentare un vero numero reale ci vorrebbe memoria infinita, cosa che ovviamente non esiste.
    Perciò, quello che volevo dire anche è che fra ora e fra 1000 anni i programmi non avranno mai una precisione assoluta nel calcolo di numeri reali.
    Ultima modifica di Smallman_647; 17-11-2012 alle 16:45

    perchè lo hai detto tu che sei ogni sapiente

  5. #125
    →Read Only Member L'avatar di Davyl
    Data Registrazione
    Tue Jun 2006
    Località
    Involving society.
    Messaggi
    8,820

    Predefinito

    Citazione Originariamente Scritto da Smallman_647 Visualizza Messaggio
    Boh, a me sembra tu stia rigirando la frittata.
    Sembra che io stia dicendo che i sistemi automatizzati (così come internet) non servano ad una ceppa e non portano vantaggi. Ma chi ha mai detto ciò?

    Ho semplicemente detto che è da pazzi fare affidamento al 100% su una macchina dicendo tanto quella non sbaglia mai, posso andare anche a prendermi il caffè nel frattempo, non che non sia utile...
    Non ho mai affrontato la discussione come se tu stessi affermando che i sistemi automatizzati siano inutili (penso che in quel caso non l'avrei proprio intrapresa). Ti ripeto che è chiaro ed evidente che nessun sistema sia immune da errori, e in effetti la tua osservazione scritta così non ha neanche tanto senso contestarla se non fosse che vorrei soltanto focalizzarmi e chiarire un particolare aspetto:
    dire che un sistema non è affidabile al 100% non significa che debba necessariamente essere accompagnato da una costante azione umana volta ad osservarne il comportamento, altrimenti non avrebbe più senso renderlo automatico. Innanzitutto bisogna specificare che tipo di sistema è, dove esso lavori, le specifiche richieste su quel sistema (e già questo porta con sé le scelte tecniche sul substrato hardware, con relativa precisione: quindi se devo progettare un sistema che risolva una serie di operazioni richieste dal CERN di Ginevra sui dati raccolti dall'acceleratore di particelle non posso usare codifiche numeriche su una word, o su una long tanto per dire, ma sarò molto più flessibile sul numero di byte da dedicarvi). Una volta specificato tutto questo, posso individuare dei moduli software all'interno del progetto, ed è giusto il concetto in sé di "controllo umano", ma a seconda del tipo di modulo (grandezza e soprattutto criticità) c'è un livello di tollerabilità ad esso associato che definisce quanto al massimo deve essere affidabile, e magari ogni TOT errori si applica l'intervento umano, non costantemente. Tieni conto che ogni funzione critica può essere monitorata da funzioni di controllo (es. sistemi real-time, e se persino questi sono stati resi automatici, che per definizione sono sistemi critici, vuol dire che ha senso minimizzare il controllo dell'uomo in questo senso) che ne verificano il comportamento.
    In altre parole, l'intervento umano è imprescindibile, ma bisogna chiedersi DOVE e COME applicarlo, ovvero a che punto e con quale grado di invadenza nel processo di elaborazione. Questo per ribadire, alla fine, che i sistemi automatizzati sono dal punto di vista teorico non affidabili del tutto, mentre sono ACCETTABILMENTE AFFIDABILI dal punto di vista pratico (pochi comportamenti inattesi nell'unità di tempo, trascurabili su larga scala ma DIPENDE FORTEMENTE DAL TIPO DI SISTEMA).

  6. #126
    Senior Member L'avatar di Jojo10
    Data Registrazione
    Thu Jan 2010
    Messaggi
    3,977

    Predefinito

    Citazione Originariamente Scritto da Smallman_647 Visualizza Messaggio
    non è che vengano semplicemente implementate male, è proprio una questione di limite dell'informatica. Ogni dispositivo informatico che usa variabili "reali" avrà una mancanza di precisione, a prescindere dall'hardware su cui gira. E' semplicemente dovuto alla risorse non infinite di cui l'informatica dispone.
    Per rappresentare un vero numero reale ci vorrebbe memoria infinita, cosa che ovviamente non esiste.
    Perciò, quello che volevo dire anche è che fra ora e fra 1000 anni i programmi non avranno mai una precisione assoluta nel calcolo di numeri reali.
    Certo, ma le approssimazioni sono fatte accuratamente quanto basta per l'applicazione da svolgere.
    Allo stesso modo, anche in fisica si usano le approssimazioni, quindi non ci affidiamo più neanche a quella?

  7. #127
    Senior Member L'avatar di Smallman_647
    Data Registrazione
    Tue Apr 2010
    Località
    Manfredonia(FG)
    Messaggi
    5,592

    Predefinito

    Citazione Originariamente Scritto da Jojo10 Visualizza Messaggio
    Certo, ma le approssimazioni sono fatte accuratamente quanto basta per l'applicazione da svolgere.
    Allo stesso modo, anche in fisica si usano le approssimazioni, quindi non ci affidiamo più neanche a quella?
    Ma li leggi i post precedenti prima di scrivere?

    Questo discorso è uscito perchè davyl aveva affermato che un programma non sbaglia MAI, e io gli ho fatto notare che dal punto di vista di calcoli in virgola mobile un programma sbaglia SEMPRE anche se in percentuali piccolissime, NON CHE UNA MACCHINA NON SIA UTILE. Condivido comunque pienamente l'ultimo post di davyl.

    Poi sinceramente, non ti rispondo neanche per il resto dato che non leggi neanche le risposte che ho già dato.

    perchè lo hai detto tu che sei ogni sapiente

  8. #128
    Senior Member L'avatar di Jojo10
    Data Registrazione
    Thu Jan 2010
    Messaggi
    3,977

    Predefinito

    Ho letto tutto, non ho capito da cosa tu deduca che non l'abbia fatto.
    Tu dici che una macchina non è precisa, io ti ho detto che è vero, ma che il margine di errore è sempre calcolato in modo congruo, in base all'approssimazione di calcolo necessaria per l'applicazione desiderata.
    Quello della fisica è solo un'esempio di un'altra disciplina in cui si utilizzano le approssimazioni, ma avrei potuto citare anche la statistica per esempio.
    Cerca di non prenderla sul personale, diamine.

  9. #129
    Senior Member L'avatar di !gohanssj2!
    Data Registrazione
    Tue Oct 2006
    Messaggi
    5,709

    Predefinito

    Vorrei riuppare linkandovi questo video:

    http://youtu.be/bDLPBjLKbiE

    Quando avete 10 minuti ascoltate (o magari skippate le parte più lente)
    Cosa ne pensate?

Permessi di Scrittura

  • Tu non puoi inviare nuove discussioni
  • Tu non puoi inviare risposte
  • Tu non puoi inviare allegati
  • Tu non puoi modificare i tuoi messaggi
  •