Mnie się wydaje że bardziej chodzi po wielkość podstawowej jednostki przetwarzania, czyli maksymalna ilość danych która nie przedłuża działania instrukcji.
Zaraz jasniej wytlumacze.
na 68000
add.b i add.w wykonują cię tak samo długo (o ile się nie myle, pomijając czas dostępu do pamięci)
natomiast add.l wykonuje się dłużej.
Wynik: procesor 16 bitowy.
na 68030 te wszystkie rozkazy trwają tak samo długo, wynik: procesor 32 bitowy.
To taka moja przybliżona definicja, oczywiście do nowoczesnych procesorów pewnie przystająca jak pięść do nosa, zresztą AMD już zrezygnowało z oznaczania bitowości procesora, bo nie ma to wielkiego sensu, nie wiem jak Intel.
Atari: FireBee, (Falcon030 CT60e SuperVidel SvEthlana CTPCI), TT, (520ST Pak030 Frak PuPla Panther), (520ST 4MB ST RAM 8MB TT RAM CosmosEx SC1435), (1040STFM UltraSatan SM124), (1040STE 4MB ST RAM 8MB TT RAM CosmosEx NetUSBee SM144 SC1224), 260ST, 520 ST+, (MEGA ST SM125), (65XE Rapidus U1MB VBXE SIDE2 SIO2PC), (Jaguar SkunkBoard), Lynx II, 2x Portfolio