Dal momento che le operazioni di cognizione devono gestire una grande quantità di dati, il modo migliore per elaborare questi dati diventa molto importante.La sfida più grande nell'elaborazione di grandi quantità di dati è che le architetture dei computer di oggi sono tutte gestite dall'architettura di von Neumann, ma utilizzando l'architettura di von Neumann. Quando si implementano applicazioni AI, è necessario trasferire una grande quantità di dati tra il processore e la memoria e la trasmissione di dati consuma molte risorse, con conseguenti scarse prestazioni.
La nuova architettura proposta da IBM si basa sull'architettura originale di von Neumann: oltre all'unità di memoria computazionale, l'unità di memoria computazionale è responsabile di un gran numero di compiti computazionali.La macchina di von Neumann è responsabile del miglioramento continuo della precisione, pertanto il sistema ha un'elevata precisione. Tasso e alta efficienza due vantaggi.
Tra i dispositivi di memoria di questa architettura, IBM utilizza la memoria a cambiamento di fase (PCM). Con la veloce velocità di lettura / scrittura del PCM, una grande quantità di dati può essere elaborata in modo efficiente senza la necessità di trasferire dati alla CPU. La velocità di implementazione aumenterà drasticamente e ridurrà anche il consumo di risorse.
IBM ha affermato che tale architettura può essere implementata attraverso la memoria computazionale senza sacrificare la precisione complessiva e superare l'attuale sfida del consumo energetico nell'architettura di von Neumann.