Wenn ich mich in eure Debatte einschalten darf, sei zu
1 Byte = 8 Bit --> 0-255
2 Byte = 1 Integer = 16 Bit --> -32768 - 32767
noch folgendes anzumerken: Bit und Byte sind unabhängig von der Programmiersprache definiert. Beim
Integer ist das nicht der Fall.
Ich kann da nur euren Freund xanthos bezüglich der
Programmiersprache C unterstützen. Dort gelten folgende Definitionen:
char = kleinste addressierbare Einheit (1 Byte)
int = Verarbeitungsbreite des Prozessors (mit Vorzeichen)
int auf einer 16-Bit CPU: 2 Byte
int auf einer 32-Bit CPU: 4 Byte
int auf einer 64-Bit CPU: 8 Byte
Daher meine Empfehlung: Orientiert euch am Skript aus der Vorlesung!