A dirença é que num CPU sai uma onda quadrada em que se tiver a 1.3v os outros componentes entendem um 1 para qualquer voltagem de saida entre o 1V até aos 1.3V e o 0 entre os 0 e os 0.3 e o 1V. Tudo o resto são erros (ruído). Mesmo que esteja instavável a saida do CPU (1.05 - 1.25) está sempre certo.
Nos CCDs, a parte que faz a leitura da luz, se tiver um output tão instavel como no CPU vai resultar em ruido.
Aumentar a sensibilidade do sensor não é mais do que encortar o intervalo entre o ligado e o desligado.
Supondo que normalmente o teu sensor tem um erro de +- 0.005V e cada celula é suposto ler 4 diferenças de luz então, de 0V a 1V tens:
- 0V-0.25V intensidade 0
- 0.25V-0.5 Vintensidade 1
- 0.5V-0.75V intensidade 2
- 0.75V-1V intensidade 3
Fantástico, a probabilidade de teres ruido (leitura errada da luz) é baixa.
Imagina que aumentas o ISO. Então o teu erro vai aumentar de 0.005V para 0.1V. Imagina a quantidade de situações que podem levar a uma leitura errada. Essas situações são o ruido.
Se isto para ti já era banal fica, então, para curiosos
PS: qualquer os valores que usei servem apenas para explicar e não representam a realidade.
EDIT:
Pegando no que o strobe disse aproveito para dizer que o "overclock" nos sensores (aumento do iso, portanto) é tudo software. A qualidade em ISOs altos vêm do intervalo de erro. Quando menor for esse intervalo melhor o sensor se comporta em ISOs altos.